| | | | | | | Edition du 20 Janvier 2023 |
| |
|
| Edito Les robots sortent des usines et s’imposent dans les métiers de services à la personne
Longtemps cantonnés dans les usines, les entrepôts, et les blocs opératoires, les robots sont en train de s’imposer dans l’ensemble des activités économiques, et notamment dans les secteurs de la livraison à domicile, de la restauration et de l’accueil, où la pénurie de main d’oeuvre est devenue chronique. Hyundai Motor Group vient de lancer deux projets pilotes de services de livraison du dernier kilomètre par robots autonomes en Corée du Sud. Le premier se déroule dans un complexe résidentiel et commercial, près de Séoul. Un robot de Hyundai y propose "un service de livraison porte-à-porte" de produits alimentaires. D’abord, ce robot identifie les articles, commandés par le client sur l’application Baemin, dans un centre commercial partenaire. Il stocke ensuite les produits dans son coffre : la plate-forme modulaire Plug & Dr ive (PnD). Le robot se déplace en autonomie à l’aide de capteurs (caméras et LiDAR). Il est également capable de reconnaître les personnes rencontrées et peut calculer le meilleur itinéraire pour livrer les colis. Le robot de service de livraison peut pénétrer dans une résidence via un système de communication sans fil développé par Hyundai Motor Group. Il peut aussi accéder aux étages supérieurs d’un immeuble en utilisant le système de commande de l’ascenseur. Si l'ascenseur est complet, ce robot saura attendre le suivant. En parallèle, l’hôtel Rolling Hills, en Corée du Sud, teste également un robot Hyundai pour le service de livraison en chambre de 20h à 22h. Arrivé devant la chambre, l’engin détecte l’ouverture de la porte, puis ouvre automatiquement son compartiment de stockage à la reconnaissance du client. La jeune société française ip sum tek, fondée en 2020, propose à ses clients restaurateurs le robot I-WAM. Il est capable de prendre les commandes, de manipuler des produits, de les transporter vers un autre endroit et les déposer. Il peut également servir de manière autonome un client attablé. Ce robot a été conçu, non pour remplacer le serveur, mais pour lui permettre de se consacrer à la satisfaction du client. Aldebaran, société pionnière en robotique, a présenté en novembre 2022 son dernier robot, baptisé Plato. Vendu 18 500 euros, Plato mesure 1,11mètre et se compose d’une base mobile circulaire dotée de six roues. Il peut se déplacer jusqu'à 2,5 km/h mais adapte sa vitesse en fonction des tâches à accomplir. Son point fort est son autonomie – 15 heures – et sa capacité d’e mport de 30 kg qui lui permet de livrer et débarrasser plusieurs tables à la fois. Plato est équipé d'un Lidar et de capteurs 3D, pour détecter des obstacles. Il possède également un écran, qui sert d'interface de communication. Il est également équipé d'un système d’arrêt d’urgence. Plato a été conçu pour pouvoir être utilisé de la manière la plus simple et le plus intuitive possible. Il commence par effectuer lui-même la cartographie de son environnement de travail. Pilotable depuis une simple tablette, il peut également être commandé par la voix. Concurrent direct de Plato, dans ce secteur très convoité de la restauration, où les difficultés de recrutement ne cessent de s’accentuer, Bella, conçu par la société chinoise Pudu Robotics, a fait également une entrée remarquée, depuis le mois d’août 2022, dans un restaurant asiatique à Rennes (Ille-et-Vilaine). Le jeune patron de cet établissement en plein essor peinait, lui aussi, à trouver du personnel compétent et il se félicite d’avoir fait le choix d’utiliser ce robot. Celui-ci s’est vite avéré irremplaçable, surtout aux heures d’affluence. Bella, comme Plato, est truffé de capteurs qui lui permettent d’identifier les obstacles et de reconnaître les tables. Le serveur n’a qu’à placer les plateaux de commande sur les plates-formes de Bella, puis à appuyer sur le num éro de la table correspondante et Bella va servir les clients. Une fois servi, le client n’a qu’à appuyer sur une touche pour que le robot revienne au bar. En outre, Bella, qui exhibe une silhouette sympathique et une tête de chat souriant, est devenu une véritable attraction qui plait beaucoup aux enfants et aux personnes âgées et contribue à fidéliser la clientèle… Le géant Pizza Hut vient de s’associer à Serve Robotics – une entreprise spécialisée dans les solutions de livraison autonome et durable – afin de concevoir le premier prototype de son robot livreur de pizzas ! Le test a été lancé à Vancouver, en Colombie-Britannique. Dans cette ville, il suffit aux clients d’utiliser l’application habituelle de Pizza Hut pour être livrés à domicile, au pied de leur immeuble, par un robot. Ces automates, conçus par Serve Robotics, sont équipés de capteurs, qui peuvent détecter les objets à proximité et naviguer sur les trottoirs de manière autonome. Les clients reçoivent sur leur smartphone un code PIN unique qu’ils doivent taper sur l’écran tactile du robot, pour récupérer leur commande, placée dans un compartiment sécurisé et isother me. Pizza Hut est également en train d’expérimenter, en collaboration avec la start-up israélienne Hyper Food Robotics, un restaurant robotisé en Israël. Cet établissement se présente sous forme de conteneur équipé de robots qui fabriquent jusqu'à 50 pizzas par heure, de fours à convection, d’un système de bande transporteuse pour enfourner les pizzas, d’une trancheuse automatique et enfin d’un robot emballant les pizzas dans les cartons. Le restaurant comprend également 30 armoires chauffantes pour garder les pizzas au chaud, un entrepôt réfrigéré pouvant stocker 240 types de pâtes différentes et un distributeur avec 12 garnitures possibles. Ce marché de la « pizza robotisée » est en plein essor et très concurrentiel : en 2020, la start-up Picnic a lancé son concept de robot modulable capable d e fabriquer jusqu'à 300 pizzas par heure. Elle permet à n'importe quel franchisé de louer une station robotisée pour 3.000 à 4.500 euros par mois. Il faut également évoquer le projet Cala, imaginé et mis en œuvre depuis 2020 par deux étudiants en école d’ingénieurs à Paris, Ylan Richard et Julien Drago. L’idée de départ était de proposer à des clients jeunes, aux moyens limités, des repas sains, peu onéreux (6 euros) et à faible empreinte environnementale. Le robot utilisé par Cala n’occupe que 4 m² au sol et peut fabriquer jusqu'à 400 repas par heure. C’est ce gain considérable de surface occupée et de productivité, par rapport au même volume de repas dans la restauration classique, qui permet de proposer des plats de pâtes copieux à un prix défiant toute concurrence. Aujourd’hui, en France, 66 % des hôtels et restaurants peinent à recruter du personnel et, selon l'Union des métiers et des industries de l'hôtellerie (UMIH) et le Groupement national des indépendants (GNI), les deux principaux syndicats de la restauration, environ 150.000 postes restent vacants dans ces secteurs en France. Dans notre pays, les quelque 200 000 cafés-restaurants réalisent 56 milliards d’euros de chiffre d’affaires et emploient plus de 720 000 personnes, dont la moitié se concentre dans la restauration traditionnelle. À eux seuls, ils constituent donc le 5e employeur de France, avec un ratio de personnel atteignant les 40 %. Ces nouveaux robots polyvalents et autonomes ne se contentent pas d’investir les commerces, la restauration et l’hôtellerie. Ils ont également leur entrée dans les administrations et les hôpitaux, à côté des robots chirurgicaux, déjà présents depuis plusieurs années. Depuis le mois de janvier, à l’hôpital Marc-Jacquet de Melun, un robot assure la distribution des médicaments auprès de 120 patients en gériatrie. Cet automate se compose de deux unités : la première découpe les plaquettes de médicaments pour en faire des doses unitaires ; la seconde prépare les doses individuelles pour chaque patient. Ce système, hautement sécurisé, attribue à chaque patient un QR code qui s’assure de la parfaite concordance et de la totale traçabilité entre l’ordonnance informatisé e, le pilulier et le plateau distribué. Ce nouvel outil permet un gain de temps très appréciable pour le personnel soignant, il réduit également considérablement les risques d’erreurs, qui sont descendus à 0,1 % (1 erreur pour 1000 piluliers préparés). Plus d’une vingtaine d’hôpitaux sont déjà équipés de cet automate conçu et fabriqué en France par l’entreprise Eco-Dex. En Belgique, plusieurs hôpitaux, dont celui de Liège, ont fait l’acquisition de robots humanoïdes Pepper, qui remportent un franc succès dans les services de pédiatrie et de gériatrie. Pepper se déplace sur roulettes de façon autonome, parle 20 langues et a pour mission d’accueillir les patients, de répondre aux questions les plus fréquentes et de les assister dans leurs démarches à l’hôpital. Il y a quelques mois, le CHU de Lille s’est doté d’un nouvel automate dernière génération, capable d’assurer la production de 600 flacons par heure et de produire toutes les tailles de flacons, y compris de gros volumes prêts à l’emploi, fermés et stériles. Ce système robotique développé par Aseptic Technologies permet au CHU de Lille de pouvoir assurer de manière sûre et auton ome, une production suffisante de médicaments en cas de crise sanitaire et de rupture d’approvisionnement sur des médicaments sensibles. L’automate Aseptic Technologies produit jusqu’à 2000 flacons de médicaments injectables par jour, notamment des préparations à base de curare, indispensables à l’anesthésie des patients. En 2019, une étude d'Oxford Economics avait fait grand bruit en estimant que la robotisation croissante, allait, à long terme, créer autant d'emplois qu'elle n'en détruirait, mais supprimerait dans un premier temps 20 millions d’emplois à faible niveau de qualification dans le monde. Selon cette étude, l'économie mondiale pourrait gagner, en faisant l’hypothèse prudente d’une progression de 30 % de la robotisation sur dix ans, jusqu'à 5 000 milliards de dollars de valeur ajoutée d'ici 2030 grâce aux gains de productivité (Voir BBC). Mais est-on bien sûr que les robots vont détruire des emplois ? Non, selon les économistes Céline Antonin, Philippe Aghion, Simon Brunel et Xavier Jaravel, qui ont publié récemment une remarquable étude très remarquée, intitulée, "Les effets réels de l’automatisation sur l’emploi et la productivité" (Voir OFCE). Dans ce vaste travail, ces chercheurs réputés ont analysé l’évolution des outils de production dans 19 448 établissements représentatifs de l’industrie manufacturière française, entre 1994 à 2015. Et le résultat est sans appel : ce sont les entreprises qui se sont le plus automatisées qui ont créé le plus d’emplois. Ces recherches constatent que, plus une entre prise est automatisée, plus elle est productive, ce qui lui permet d’abaisser ses coûts de revient, et donc ses prix de vente. Il en résulte une hausse de la demande et, donc, de l’emploi. Ces chercheurs ont estimé que 1 % d’automatisation supplémentaire crée 0,28 % d’emploi en plus. Mais l’étude montre aussi, de manière assez inattendue, que, contrairement à une autre idée reçue, tous les types d’emplois, très qualifiés ou peu qualifiés finissent par profiter de la robotisation. Le dernier rapport de la Fédération Internationale de la Robotique nous apprend que les installations de robots industriels ont atteint 517 000 unités en 2021, contre 166 000 en 2011, soit une multiplication par trois au cours de cette période. Sans surprise les secteurs où cette robotisation est la plus forte sont l'industrie électronique (26 %), suivie du secteur automobile (23 %). Mais, et ce point est central, les trois quarts des robots installés en 2021 sont asiatiques, et plus de la moitié sont chinois. Aujourd’hui, le parc mondial de robots dépasse les 3,5 millions d’unités dont un tiers est en Chine – et progresse en moyenne de 15 % par an depuis dix ans. En Europe, le nombre de robots a progressé en moyenne de 8 % entre 2016 et 2021 et atteint 680 000 unités. Mais sur les 84 302 robots industriels installés en Europe en 2021, 23 800 sont allemands, 14 000 sont Ita liens… et 6 000 sont français. Au niveau mondial, le taux moyen de robotisation atteint à présent les 141 pour 10 000 salariés dans le secteur manufacturier. Mais ce chiffre cache en réalité de profondes et inquiétantes disparités : la Corée du Sud est le pays au monde dont l'industrie est la plus robotisée (932 unités pour 10 000 salariés), devant Singapour (605), le Japon (390), l'Allemagne (371), la Suède (289), les USA (255), la Chine (246), l’Italie (224) et… la France, dont le ratio n’est que de 194 robots pour 10.000 salariés. L'Insee constate pour sa part qu'en 2020, une société (de plus de dix personnes) sur dix utilisait au moins un robot. Mais ce chiffre grimpe à 22 % pour les entreprises industrielles. Dans le secteur des “robots de service”, plus autonomes, et plus complexes, le taux d'utilisation n’est encore que de 12 %. Ces robots sont principalement utilisés pour la gestion des entrepôts, suivis par le nettoyage ou traitement des déchets, la surveillance, l'assemblage, et le transport de personnes et de bien. Il est intéressant de souligner que ces différentes études mettent en lumière trois raisons principales qui expliquent pourquoi le taux de robotisation reste si faible en France. La première raison est que notre industrie manufacturière française a perdu de son importance dans l’économie : en 40 ans, la part de l’industrie manufacturière dans l’économie française a diminué de moitié, passant de 22,3 % à 11,2 %, alors qu’elle est de 20 % en Allemagne. La deuxième raison tient au poids de l’industrie automobile, très consommatrice de robots, qui est sensiblement moins élevé en France qu’en Allemagne, en Corée ou au Japon. Enfin, la dernière raison, moins connue mais pourtant très importante, tient au fait que notre pays ne possède pas assez d’entreprises "intégratrices", c’est- à-dire capables d’intégrer les robots dans les chaînes de production. Selon la DARES, le nombre d’emplois vacants en France (c’est-à-dire le nombre de postes libres pour lesquels des démarches actives sont entreprises pour trouver le candidat convenable) s’élevait à 368 000 fin 2022, dont plus de 150 000 dans le seul secteur de la restauration-hôtellerie. En 2030, ces besoins de recrutement, générés par les départs en fin de carrière et l’évolution économique, devraient conduire à une pénurie de 800 000 postes à pourvoir chaque année, tous secteurs confondus. Dans un tel contexte économique, il est capital que notre pays, parallèlement à un effort accru dans la formation professionnelle, généralise l’usage de ces nouveaux robots autonomes et polyvalents, qui pourront, certes, se substituer à l’homme pour certaines tâches dangereuses, pénibles ou faibl ement qualifiantes, mais seront surtout à même de démultiplier la productivité humaine en permettant au salariés, cadres ou artisans, de libérer un temps précieux pour se recentrer sur les aspects relationnels et créatifs de leur travail, là où l’être humain sera pour longtemps encore irremplaçable... René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Les matériaux magnétiques moléculaires sont des objets innovants qui pourraient permettre le stockage d'information binaire, voire quantique, à une échelle très réduite. Par exemple, une molécule-aimant est un aimant formé d'une seule molécule dont l'aimantation, sous l'action d'un champ magnétique, peut présenter deux états. Il est possible de passer réversiblement d'un état à l'autre, ce qui confère à cette molécule-aimant un effet mémoire. Hélas, ces objets sont fréquemment victimes de mécanismes de relaxations magnétiques parasites qui affectent leur mémoire intrinsèque. De plus, une fois déposées sur une surface, leur interaction avec celles-ci peut significativement diminuer leurs performances. Des scientifiques de l'Institut des sciences chimiques de Rennes (CNRS/Université Rennes 1/ENSCR/INSA Rennes), de l'Institut de physique de Rennes (CNRS/Université Rennes 1) et de l'Université de Florence (Italie), ont utilisé la faculté de certaines chaînes-aimant à s'auto-organiser sous forme de nanotubes supramoléculaires pour les transformer en gels. Sous cette forme, les nanotubes magnétiques peuvent maintenant être aisément déposés sur une surface. L'étude de ces gels par spectroscopie d'absorption des rayons X montre que l'auto-organisation sous forme de nanotubes supramoléculaires perdure dans les gels. Les résultats de diffraction X des fibres permettent d'obtenir des mesures précises de ces nanotubes dans la matière molle. Enfin, des études magnétiques montrent que la propriété de chaîne-aimant, et donc l'effet mémoire, est conservée dans les gels, qui peuvent maintenant être facilement manipulés pour former des films épais ou des sous-monocouches de chaînes-aimants. Ces nouvelles architectures ouvrent des perspectives pour l'insertion d'objets moléculaires dans des dispositifs dédiés au stockage de données à l'échelle nanométrique. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Une équipe de scientifiques de l’Université de Tel-Aviv en Israël est parvenue à détruire des tumeurs cancéreuses chez des souris grâce à de minuscules bulles gazeuses injectées dans la circulation sanguine. À terme, cette technique pourrait devenir une solution moins invasive que la chirurgie. Les chercheurs ont effectué les tests avec des nanobulles de gaz sur des souris. Ils ont de grands espoirs de pouvoir l’appliquer sur des humains pour traiter des tumeurs cancéreuses. Dans le bâtiment, lors d’une démolition par explosion contrôlée, les ingénieurs parviennent à contrôler l’explosion afin de détruire le bâtiment ciblé en ne causant aucun dégât aux constructions avoisinantes. Les scientifiques de l’Université de Tel-Aviv utilisent en quelque sorte le même principe d’e xplosion contrôlée pour détruire des cellules cancéreuses. Les nanobulles de gaz que les chercheurs utilisent sont environ 2500 fois plus petites qu’un grain de sel. Après qu’ils les aient injectées à des souris, elles se sont répandues dans l’ensemble du corps des rongeurs. Les chercheurs sont pourtant parvenus à les faire exploser grâce à l’utilisation d’ultrasons à basse fréquence. Ils ont appliqué ces dernières uniquement à l’endroit de la tumeur. Les ultrasons font grossir les nanobulles de gaz. Elles atteignent alors 100 fois leur taille initiale. En éclatant, elles déclenchent un effet mécanique qui déchire littéralement les cellules de la tumeur. Elles se comportent un peu comme des munitions programmées qui explosent à un endroit donné en détruisant la cible par effet de souffle. On utilise déjà les ultrasons pour traiter certains cancers comme le cancer de la prostate chez l’homme. Ce traitement non invasif permet de détruire de façon très ciblée la zone cancéreuse de la prostate. Cette technologie donne d’excellents résultats sur les tissus malades en les détruisant par la chaleur. Cependant, cette chaleur générée par les ultrasons à haute intensité peut aussi endommager les tissus sains. En se servant de nanobulles de gaz, les chercheurs ont pu utiliser des ultrasons de faible intensité. Ils ont ainsi pu épargner les tissus sains de tout dommage collatéral dû à une température élevée. Comme leur nom l’indique, les ultrasons sont avant tout des sons. Un son est une vibration qui se propage dans l’air, caractérisée par une fréquence. Cette fréquence indique le nombre de répétitions de la vibration par seconde. Une fréquence de 1000 Hz correspond donc à 1000 pulsations par seconde. En dessous de 20 Hz, les infrasons sont pratiquement inaudibles pour l’oreille humaine. L’être humain à la capacité d’entendre des sons dont la fréquence varie de 20 Hz à 17 000 Hz pour les adultes et jusqu’à 20 000 Hz pour les enfants. Au-dessus de 20 000 Hz, c’est le domaine des ultrasons. Les ultrasons focalisés de haute intensité permettent de traiter certaines tumeurs. Ils produisent un échauffement élevé supérieur à 60°C ou 70°C. Cette augmentation de température ciblée permet une destruction des tissus en des endroits prédéterminés. Le terme "haute intensité" employé dans cette technologie fait référence à la puissance surfacique. D’au moins 100W par centimètres carrés, c’est l’appareil générateur des ultrasons qui l a produit. Cette nouvelle technologie qui utilise des nanobulles de gaz injectées dans la circulation sanguine nécessite uniquement des ultrasons de faible densité. Elle ne produit donc pas d’augmentation de température. La destruction des cellules tumorales est alors uniquement mécanique. Dans les tissus du corps, les cellules assurent différentes fonctions pour lesquelles elles sont génétiquement programmées. Au fil du temps, des agressions extérieures comme le tabac, l’alcool ou encore les radiations diverses, peuvent produire des altérations du matériel génétique de ces cellules. Normalement, l’organisme dispose d’un système de réparation. Il repère et corrige ces anomalies. Si la "réparation" n’est pas possible, la cellule s’autodétruit par apoptose. Lorsque ce système fonctionne mal, la cellule commence à se multiplier de manière anarchique. Ceci peut conduire à la formation d’une tumeur, maligne ou bénigne. Ces cellules cancéreuses acquièrent toute une série de particularités. Elles peuvent notamment développer leur propre réseau de vaisseaux sanguins indispensable pour leur fournir l’oxygène et les nutriments. Ces vaisseaux sanguins développés par les cellules cancéreuses possèdent une particularité. Les chercheurs de l’Université de Tel-Aviv l’ont utilisée pour développer leur système à nanobulles de gaz. Ces vaisseaux sanguins sont en effet perméables. Ceci permet aux nanobulles injectées dans la circulation sanguine de quitter les vaisseaux au niveau de la tumeur pour se retrouver directement au contact du tissu tumoral. Une fois que les nanobulles de gaz se situent au contact de la tumeur, les chercheurs se servent des ultrasons de faible intensité pour les faire exploser et détruire les cellules cancéreuses. Cette nouvelle approche est beaucoup moins invasive. En effet, elle tire parti de la circulation sanguine pour amener les nanobulles de gaz au bon endroit. Les recherches ont pour le moment uniquement été menées sur des souris. Cependant, les scientifiques pensent bien que le traitement sera tout aussi efficace pour traiter des tumeurs humaines. Article rédigé par Georges Simmonds pour RT Flash Nanoscale | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Une étude publiée le 16 décembre dernier dans Science Advances montre à quel point les crises du climat et de la biodiversité sont intimement liées. Alors que la planète est entrée dans la sixième extinction de masse, les scientifiques avaient jusqu'à présent du mal à évaluer le taux d'extinction de la faune et de la flore causée par la surexploitation des terres et des ressources, la pollution, le changement climatique et les invasions biologiques. Cet environnement va causer des extinctions en cascade, des co-extinctions – c'est-à-dire la perte d'espèces causée par des effets directs ou indirects découlant d'autres extinctions –, expliquent les auteurs européen et australien de l'étude. Par exemple, le fait qu'une espèce disparaisse en raison du changement climatique va avoir des impacts sur les prédateurs qui pourraient aussi disparaître. Le Docteur Giovanni Strona, scientifique de la Commission européenne, de l'Université d'Helsinki, et le professeur Corey Bradshaw, de l'Université Flinders, ont donc réalisé des modélisations de la biodiversité à l'échelle mondiale, en incluant, pour la première fois, les interactions entre espèces. Concrètement, ils ont créé à l'aide de l'un des superordinateurs les plus puissants d'Europe des espèces virtuelles sur une planète virtuelle, construites pour suivre des archétypes du monde réel, et ils ont simulé différents degrés de changement climatique et de surexploitation des terres et des ressources. Résultat de ce cocktail explosif : selon leurs estimations, les extinctions en cascade sont inévitables. La Terre va perdre entre 6 % et 10 % de ses animaux et de ses plantes d'ici 2050 et jusqu'à 27 % d'ici 2100. « Les enfants nés aujourd'hui qui vivent jusqu'à 70 ans peuvent s'attendre à assister à la disparition de milliers d'espèces végétales et animales, des plus petites orchidées aux plus petits insectes, en passant par des animaux emblématiques tels que l'éléphant et le koala... tout cela au cours d'une seule vie humaine », explique le professeur Bradshaw. Article rédigé par Georges Simmonds pour RT Flash Phys.Org | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les chercheurs ont découvert que les traumatismes psychologiques peuvent aller jusqu’à modifier physiquement la structure de notre cerveau. « Nous en apprenons davantage sur la façon dont les personnes exposées à un traumatisme apprennent à faire la distinction entre ce qui est sûr et ce qui ne l'est pas. Leur cerveau nous donne un aperçu de ce qui pourrait mal tourner dans des mécanismes spécifiques qui sont impactés par l'exposition à un traumatisme, en particulier lorsque l'émotion est impliquée », a déclaré l’un des co-auteurs de l’étude, Suarez-Jimenez, professeur au Columbia University Irving Medical Center. Les recherches de son équipe ont identifié des changements dans le réseau de saillance – un mécanisme cérébral utilisé pour l'apprentissage et la survie – chez les personnes exposées à des traumatismes (avec et sans psychopathologies, y compris le syndrome post-traumatique, la dépression et l'anxiété). À l'aide d’une IRM, les chercheurs ont enregistré l'activité dans le cerveau des participants alors qu'ils regardaient des cercles de différentes tailles. Une seule taille était associée à un petit choc (ou menace). En plus des changements dans le réseau de saillance, les chercheurs ont découvert une autre différence au sein du groupe résilient exposé aux traumatismes. Ils ont découvert que le cerveau des personnes exposées à un traumatisme sans psychopathologie compensait les changements dans leurs processus cérébraux en engageant le réseau de contrôle exécutif, l'un des réseaux dominants du cerveau. « Nous savons où un changement se produit dans le cerveau et comment certaines personnes peuvent contourner ce changement. C'est un marqueur de résilience », explique Suarez-Jimenez. « Savoir ce qu'il faut rechercher dans le cerveau lorsqu'une personne est exposée à un traumatisme pourrait faire progresser considérablement les traitements&n bsp;», affirme le chercheur. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress | | | |
| Une étude canadienne vient de montrer qu’une faible masse musculaire est associée à une accélération significative du déclin cognitif à 3 ans, et en particulier des fonctions exécutives chez des personnes de 65 ans et plus. Si des études à plus long terme sont attendues, ces données incitent d’ores et déjà à renforcer les mesures permettant de limiter au mieux le déclin des fonctions cognitives chez les sujets atteints de sarcopénie. Le déclin cognitif et la sarcopénie sont des processus physiopathologiques dont les similarités laissent supposer qu’ils pourraient être liés l’un à l’autre. Au-delà de son rôle dans les fonctions corporelles, le muscle est un organe endocrinien qui libère plusieurs myokines impliquées dans les fonctions cérébrales. La sarcopénie pourrait à ce titre être un prodrome du déclin cognitif. Si plusieurs études ont déjà évalué l’association entre faible masse, force musculaires et troubles cognitifs, aucune n’avait encore exploré l’association entre la masse musculaire – indépendamment de la force – et la vitesse du déclin cognitif. L’identification d’un marqueur biologique précoce qui permettrait d’estimer le risque de déclin cognitif est un élément clé pour la mise en place de stratégies adaptées limitant ce risque et tester des thérapeutiques spécifiques. La sarcopénie, dont la prévalence est estimée entre 10 % et 40 % au sein de cette population, pourrait ainsi être considérée comme un facteur prédictif du déclin cognitif. CLSA (Canadian Longitudinal Study on Aging) est une étude longitudinale menée sur une cohorte prospective d’adultes indemnes d’altérations cognitives à l’inclusion. Le recrutement a eu lieu entre 2011 et 2015 et un suivi est prévu tous les 3 ans durant 20 ans. Une sous-cohorte de sujets ≥65 ans a été incluse dans les analyses présentées ici. Tous ont suivi des tests pour explorer 3 domaines cognitifs : la mémoire, la fonction exécutive et la vitesse psychomotrice. L’indice de masse maigre tissulaire (ALM pour Appendicular lean soft tissue mass) <7,30 kg/m2 chez l’homme et <5,42kg/m2 chez la femme signait la présence d’une sarcopénie. Sur les 8.279 participants, 4.003 (48 %) étaient des femmes, 97 % d’origine caucasienne et l’âge moyen était de 72,9 ans, indice de masse corporel (IMC) moyen de 27,7 kg/m2. Globalement, 19,4% des sujets présentaient une masse musculaire faible (mesurée par l’ALM) initialement faible. Les sujets qui avaient la plus faible ALM étaient plus susceptibles d’être parmi les plus âgés, et d’avoir un indice de masse corporelle et un niveau d’activité parmi les plus faibles. Sur les 3 années de suivi, les sujets qui avaient une masse musculaire initialement faible étaient également ceux qui avaient le déclin cognitif le plus rapide à la fois pour les fonctions exécutives et la vitesse psychomotrice. Après ajustement (sur l’âge, le niveau d’éducation, le pourcentage de masse grasse corporelle et la force de préhension), une faible masse musculaire était toujours significativement associée de manière indépendante au déclin des fonctions exécutives (p=0,03), mais pas à la mémoire. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| L’équipe de Réjane Rua travaille de longue date avec le virus de la chorioméningite lymphocytaire (CMLV), un pathogène qui induit des infections cérébrales potentiellement fatales. Pour étudier les mécanismes infectieux et les défenses immunitaires activées par l’hôte, elle avait l’habitude d’injecter le virus au cœur du cerveau de souris. Mais cette stratégie ne rend pas compte du déroulement naturel de l’infection : avant d’y pénétrer, le virus doit d’abord traverser les membranes qui enveloppent le cerveau. L’équipe a donc considéré qu’il était temps de s’intéresser de plus près au rôle joué par ces structures, appelées méninges, en cas d’infection. Des travaux ont montré que les méninges, longtemps considérées comme relativement inertes sur le plan fonctionnel, sont en réalité composées d’un grand nombre de cellules immunitaires telles que des cellules dendritiques, des lymphocytes, des mastocytes et surtout − les plus abondantes − des macrophages. Ces derniers sont des sentinelles, armées pour repérer et séquestrer les agents infectieux. Leur présence en nombre à l’interface entre la périphérie de l’organisme et le cerveau peut logiquement laisser suspecter qu’ils jouent un rôle important dans la défense immunitaire cérébrale. C’est pourquoi l’équipe de Réjane Rua a décidé d’étudier, toujours chez la souris, le comportement des macrophages méningés en réponse à l’intrusion de différents agents : le virus de la chorioméningite lymphocytaire, mais aussi le SARS-CoV‑2 responsable de la Covid-19, ou encore des particules bactériennes appelées LPS (pour lipopolysaccharides). Cette fois, pas d’injection intracrânienne des pathogènes : leur administration a été réalisée en périphérie, dans le sang des animaux, de manière à ne pas contourner la frontière naturelle du système nerveux central. Les chercheurs ont combiné plusieurs méthodes d’analyse pour visualiser les événements induits par l’infection, caractériser les sous-populations de macrophages présentes, ou encore décrire les profils d’expression génique de ces derniers, avant et après l’infection. Ce travail a mis en évidence la très bonne efficacité des macrophages à repérer les différents agents pathogènes testés. Il a aussi permis de distinguer deux sous-populations de macrophages, qui réagissent différemment au contact d’un "ennemi". La première est présente dès la naissance des animaux et la seconde se constitue progressivement au cours de la vie des rongeurs. Après avoir reconnu l’agent infectieux, elles présentent des profils d’expression géniques distincts, qui attestent de la mise en &oeli g;uvre de mécanismes différents, voire complémentaires, pour contrer l’infection. « Les macrophages méningés ont la capacité de stopper net l’infection. Le virus CMLV est ainsi éliminé dans les méninges avant tout dommage, alors qu’il est mortel s’il est injecté directement dans le cerveau », constate Réjane Rua. « Cela crée un changement de paradigme : travailler sur l’immunité cérébrale implique désormais de se pencher autant sur les méninges que sur le cerveau », estime-t-elle. Sur le plan clinique, ce travail apporte des informations intéressantes : « Les jeunes enfants sont plus vulnérables aux méningites que les adultes. Nous supposions que cela était lié à un problème d’étanchéité de la barrière hématoencéphalique, qui faciliterait le passage du pathog&e grave;ne de la périphérie au cerveau. En réalité, cette particularité pédiatrique pourrait être imputable à l’absence de la seconde population de macrophages au début de la vie, qui diminuerait l’efficacité des méninges à lutter contre les infections », propose-t-elle. Cette hypothèse ouvre d’ailleurs la voie à une piste thérapeutique : « Injecter les facteurs produits par cette seconde classe de macrophages pourrait aider les plus jeunes à lutter contre l’infection », entrevoit Réjane Rua. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Regarder la télévision ou jouer avec un écran est un passe-temps courant dans la petite enfance et de nombreux enfants sont exposés à la violence à l’insu de leurs parents. Cette équipe de pédiatres et de pédopsychiatres de l’Université de Montréal alerte, avec cette recherche publiée dans le Journal of Developmental & Behavioral Pediatrics : les effets de cette exposition peuvent commencer dès l’âge de 3 ans. L’étude menée par Linda Pagani, professeur à l'École de psychoéducation de l'Université de Montréal, précise ainsi les conséquences d’une exposition à la violence même télévisée pendant les années préscolaires et, notamment les risques ultérieurs de troubles psychologiques et de difficultés scolaires, dans les années de collège et de lycée : « jusque-là on ignorait dans quelle mesure l'exposition à la violence sur écran dans la petite enfance, une période particulièrement critique dans le développement du cerveau, peut prédire la détresse psychologique et les troubles du développement. L’étude a suivi près de 2.000 enfants d'âge préscolaire afin d’évaluer l'effet à long terme de cette exposition à la violence sur écran, sur le développement normal, à l’aide de plusieurs indicateurs clés permettant de mesurer l'adaptation et l’épanouissement des enfants, de la petite enfance à 12 ans. Les données d’exposition aux écrans ont été renseignées par les parents, une première fois aux âges de 3 ans et demi à 4 ans puis lorsque les enfants avaient atteint l'âge de 12 ans. Lors du suivi, 2 bilans ont été réalisés : ce que les enseignants avaient observé en termes de comportement et de développement des enfants, et deuxièmement le cheminement psychologique et scolaire renseigné par les enfants eux-mêmes à l’âge de 1 2 ans. L’analyse confirme que les enfants mieux préservés des écrans à l’enfance, et donc moins exposés à la violence à la télévision, éprouvent beaucoup moins de détresse émotionnelle, s’engagent plus en classe, font preuve de plus de motivation scolaire et globalement se décrivent comme plus heureux. Les experts sensibilisent donc à ce facteur, modifiable et précoce, qui influence considérablement le bien-être ultérieur de l’enfant : « c’est une cible importante pour de nouvelles interventions de sensibilisation des parents ». « Pour les enfants, la transition vers le collège représente déjà une étape cruciale dans leur développement à l'adolescence. Ressentir de la tristesse et de l'anxiété va rendre cette transition encore plus difficile. Les troubles psychologiques et scolaires chez les enfants préoccupent de plus en plus les professionnels de la santé scolaire, mais les parents ont bien un rôle crucial à jouer, en préservant et en privilégiant, par rapport aux écrans, ce que les auteurs appellent « des compétences sociales essentielles ». Tout comme être témoin de violence dans la vraie vie réelle, être exposé à des images de violence déclenche de la peur et du stress et apporte aux enfants une vision effrayante du monde. « En revanche, être placés dans des situations de relations sociales plus appropriées les aide à développer des compétences essentielles pour leur réussite personnelle ». Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Une étude réalisée par des chercheurs du RCSI (Royal College of Surgeons in Ireland) explique comment notre horloge biologique peut influencer nos réponses aux vaccins. Les chercheurs irlandais décryptent, dans la revue Nature Communications, le mécanisme sous-jacent selon lequel notre rythme circadien sur 24 heures influence notre réponse immunitaire aux vaccins, en fonction de l'heure de la journée. Ces immunologues examinent, précisément, les changements qui se produisent dans les mitochondries d'un type de cellules immunitaires clés impliquées dans la réponse vaccinale. Leurs découvertes pourraient permettre d’améliorer la conception des futurs vaccins et d’optimiser le moment de leur administration de manière à renforcer leur efficacité. Plusieurs études ont déjà suggéré que les humains réagissent davantage à certains vaccins selon l'heure à laquelle le vaccin est administré, mais ce phénomène reste mal compris. Cette recherche révèle que notre horloge circadienne modifie la forme des mitochondries dans les cellules dendritiques. Et ces variations de la structure des mitochondries influencent le bon fonctionnement des cellules dendritiques tout au long de la journée. L’auteur principal, le Dr Annie Curtis, professeur à la RCSI University explique : « Notre étude met en lumière un aspect crucial de la réponse de notre corps à la vaccination et souligne l'importance des rythmes circadiens dans l'immunité. Cette nouvelle compréhension a des implications pour le développement de nouveaux vaccins et plus généralement pour l’optimisa tion de la vaccination ». Les chercheurs montrent que l'horloge circadienne dans les cellules dendritiques contrôle si les mitochondries forment l'une des deux formes suivantes : une forme de longue chaîne, "en réseau" ; ou brisées en petits morceaux. Ces travaux démontrent également que c’est lorsque les mitochondries des cellules dendritiques prennent la forme d'un réseau que la vaccination est la plus efficace car les cellules dendritiques ont une meilleure capacité à briser le vaccin en petits morceaux et à interagir ainsi avec nos cellules immunitaires T. Les chercheurs parviennent à développer une technique pour induire cette "forme" en réseau des mitochondries, ce qui a déjà des implications dans la conception de vaccins qui déclencheraient une réponse immunitaire optimisée, à toute heure de la journée. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des pharmacologues et biologistes de l’Université technique de Munich (TUM), ont développé des peptides synthétiques qui peuvent supprimer la formation d’agrégats amyloïdes nocifs, un processus caractéristique non seulement de la maladie d’Alzheimer mais aussi du diabète de type 2. Non seulement c’est l’espoir d’un nouveau candidat efficace à bloquer ce processus pathologique, mais aussi une preuve supplémentaire de la corrélation entre la maladie d’Alzheimer et le diabète de type 2. L’auteur principal, le professeur Kapurniotu, décrit d’ailleurs ces peptides comme de précieux candidats pour le développement de médicaments pour les deux maladies. On sait que dans la maladie d’Alzheimer, la dégénérescence des cellules cérébrales est liée à la formation d’agrégats et de dépôts de protéines toxiques sous forme de "plaques amyloïdes". L’étude, menée sur des modèles animaux, confirme que ces nouveaux peptides synthétiques sont bien capables de bloquer le processus d’agrégation amyloïde toxique liée aux deux maladies. Ces "mini-protéines" ou peptides vont se lier aux protéines qui forment les plaques amyloïdes et empêcher ainsi leur agrégat. Cibler la formation d’agrégats amyloïdes nocifs est donc une approche prometteuse. Des interactions moléculaires entre la maladie d’Alzheimer et le diabète de type 2 ? Ce résultat conforte encore le lien entre les 2 maladies, déjà documenté par de précédentes études : des "interactions croisées" entre les protéines amyloïdogènes des 2 maladies accélèrent en effet considérablement le processus d’agrégation amyloïde. Ces résultats contribuent donc à expliquer pourquoi les patients souffrant de l’une des 2 maladies présentent un risque accru de développer l’autre maladie. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs de la Wake Forest University (Caroline-du-Nord) ont mis au point un dispositif capable de restaurer, en partie, la mémoire des patients atteints de lésions dans le cerveau. Il s’agit d’électrodes cérébrales qui imitent l’hippocampe – la zone touchée en cas de troubles de la mémoire – et stimulent l’encodage des souvenirs. Pour tester leur appareil, les chercheurs ont mené un essai clinique sur 24 patients atteints d’épilepsie réfractaire, c’est-à-dire résistante aux traitements. Cette maladie qui touche le cerveau regroupe différents symptômes mais la manifestation la plus typique de l’épilepsie est la crise épileptique, dont on distingue deux types : la crise généralisée et la crise focale. Les participants souffraient également de lésions cérébrales. Tous les participants ont été équipés d’électrodes cérébrales et leur capacité mémorielle a été évaluée lors des tests. Lors de ces derniers, ils devaient observer une image – quand c’était la première fois, les électrodes s’activaient – et la reconnaître 15 à 90 minutes plus tard. Durant cette deuxième étape, quand le cerveau des participants devait reconnaître l’image, les électrodes cérébrales reproduisaient les signaux électriques de l’hippocampe. « Notre stimulation structurée de l'hippocampe pendant l'encodage [de nouveaux souvenirs] améliore le rappel et la reconnaissance jusqu'à 90 minutes plus tard », explique le professeur Robert Hampson. D’après les résultats, plus les participants avaient des troubles de mémoire importants au début de l’expérience, plus les électrodes cérébrales étaient efficaces pour rétablir leurs capacités mémorielles. Ainsi, les chercheurs estiment même que certains patients ont connu des améliorations de la capacité de leur mémoire allant jusqu’à 50 %. « Il s'agit d'une amélioration profonde de la restauration de la fonction de mémoire », souligne le Professeur Robert Hampson. « Notre objectif est d'être en mesure d'arrêter le déclin de la fonction de mémoire et d’améliorer la qualité de vie (...) des patients atteints de la maladie d'Alzheimer ». Article rédigé par Georges Simmonds pour RT Flash Frontiers | | | |
| Pour la première fois, des chercheurs de l'Université de San Diego (Etats-Unis), ont constaté qu'un mini-cerveau humain implanté à une souris, montrait une réaction à un stimulus extérieur : un rai de lumière dans les yeux de l'animal. Jamais auparavant la science n'avait pu attester que la transplantation avait bien permis de créer de nouvelles connexions entre les deux organes. Cette expérience, menée par une équipe, marque une étape de plus dans l'utilisation d'organoïdes humains. Largement utilisés dans la recherche depuis plusieurs années, les mini-cerveaux, ou organoïdes de cerveaux, sont mis au point en laboratoire à partir de cellules souches pluripotentes. Les cellules de peau humaines, lorsqu'elles sont en culture, peuvent être traitées afin de devenir des cellules souches, le même type de cellules que celles d'un embryon. Ces cellules souches pluripotentes peuvent ensuite devenir n'importe quel type de cellules, comme les cellules d'un embryon qui se diversifient en cellules du cœur, du foie ou en neurones. « Dans notre laboratoire, nous poussons les cellules souches à devenir des cellules nerveuses grâce à un protocole développé et amélioré depuis plusieurs années. La cellule grandit alors en 3D et forme un organoïde avec certaines caractéristiques d'un cerveau normal, notamment une organisation structurée en couches (de la surface à la profondeur). Au fur et à mesure que les organoïdes se développent en trois dimensions, ils montrent également une organisation en couches, qui restent toutefois bien plus simple que le cortex cérébral réel », explique le Docteur Martin Thunemann, spécialisé en ingénierie biomédicale à l'Université de Boston, à l'origine de ces travaux. Une fois créé en laboratoire, l'équipe a retiré un petit morceau du cortex de la souris situé dans l'aire visuelle, mais bien plus succinct que toute l'aire visuelle toute entière, afin que les capacités de la souris ne soient pas altérées. L'organoïde a ensuite été implanté dans la partie de cerveau manquante. Moins d'un mois après la transplantation, les chercheurs ont pu voir que des connexions synaptiques fonctionnelles s'étaient développées entre l'organoïde et le reste du cerveau de la souris. Deux mois plus tard, les tissus s'étaient encore mieux intégrés les uns aux autres. Mais la grande avancée de cette expérience a été de pouvoir prouver que les tissus se sont mis à communiquer entre eux : la souris a réagi à un stimulus lumineux, à savoir, un rai de lumière dirig&eac ute; vers ses yeux. Une première décrite dans la revue Nature Communications. Concrètement, la souris n'a pas tourné la tête une fois l'ampoule allumée. L'équipe a pu mesurer une réaction dans le cerveau de la souris grâce à des électrodes en graphène, capables de détecter l'activité de l'organe grâce aux ondes cérébrales qu'il émet. « Nous avons vu une réponse au stimulus lumineux, ce qui indique que l'excitation et l'information peuvent circuler de l'œil de la souris jusqu'au cortex et à l'organoïde implanté. Pour cela, le stimulus visuel doit traverser plusieurs connexions synaptiques, dont une, probablement la dernière, entre la souris et les cellules humaines ». A la fin de l'expérience, les souris ont été euthanasiées afin d'observer l'implant et le cortex de la souris. Grâce à une technique appelée immunofluorescence, qui permet de voir certaines structures dans les tissus, l'équipe a pu confirmer qu'il existait bel et bien des synapses entre le cerveau de la souris et les cellules humaines. Cette avancée pourrait être utilisée dans la recherche médicale. « Nous pourrions générer des organoïdes à partir de cellules de peau saines ou de patients atteints de troubles neuropsychiatriques, comme la dépression, la schizophrénie ou encore la maladie d'Alzheimer. Notre approche expérimentale pourrait nous permettre de mieux observer les différences entre les cellules saines et les cellules malades dans l'organoïde, ainsi que la façon dont le cerveau interagit avec son hôte souris », explique le Docteur Thunemann. Dans un futur plus lointain, l'équipe espère réussir à soigner certaines maladies en créant des tissus sains à partir de cellules souches. Les organoïdes pourraient alors être utilisés afin de restaurer certaines fonctions dans le cerveau, dans les aires endommagées... Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Le myélome multiple est un type incurable de cancer de la moelle osseuse et est le deuxième cancer du sang le plus fréquent. En France, en 2018, le nombre estimé de nouveaux cas de myélome multiple et de plasmocytome était de 5.442. Mais une nouvelle thérapie mise au point par des chercheurs de l'Université de Melbourne - Australie, conduite par le Docteur Michael Dickinson, pourrait changer la donne : elle s’est révélée efficace chez 73 % des patients au cours de deux essais cliniques. Cette nouvelle thérapie, appelée “thérapie par anticorps bispécifiques” agit sur la moelle osseuse du malade en activant son système immunitaire, tuant les cellules cancéreuses. Cela fonctionne en guidant les globules blancs, plus précisément les lymphocytes T – des cellules qui jouent, entre autres, un rôle essentiel dans la lutte contre des agents pathogènes (virus, bactéries, champignons) et les tumeurs – pour se fixer aux cellules cancéreuses du myélome se développant dans la moelle osseuse. Baptisée Glofitamab, cette immunothérapie diffère des traitements précédents du myélome multiple car elle cible un récepteur spécifique, appelé GPRC5D, qui se trouve à la surface des cellules cancéreuses. Cela permet de viser uniquement la partie malade de la moelle osseuse pour la détruire tandis que la partie saine nécessaire au maintien d'un système immunitaire est épargnée. Ce qui a marqué les chercheurs, c’est que le succès de la thérapie a été observé chez les patients qui n'avaient pas obtenu de rémission durable avec les thérapies précédentes. En effet, le problème récurrent dans les autres traitements du myélome multiple est constitué par les rechutes répétées (le cancer disparaît puis réapparaît quelque temps après). Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| La reprogrammation d’une cellule adulte mature en cellule pluripotente passe au départ par les mêmes processus moléculaires que la transformation d’une cellule saine en cellule cancéreuse. C’est ce que vient de montrer une équipe du Centre de recherche en cancérologie de Lyon. Cette amélioration des connaissances est cruciale pour assurer la sécurité des stratégies de médecine régénérative qui se fondent sur la reprogrammation cellulaire. Depuis un peu moins de vingt ans, il est devenu possible de déclencher la transformation d’une cellule adulte, dotée de fonctions particulières bien définies, en une cellule plus "immature", capable de se multiplier à l’infini et de se redifférencier en cellule spécialisée. Cette technique, dite de "reprogrammation cellulaire", pourrait bénéficier au développement de la médecine régénérative : l’idée est de l’utiliser pour induire une reprogrammation partielle des cellules d’un organe défaillant, dans le but d’accroître leur capacité de multiplication et leur plasticité, au bénéfice du fonctionnement de l’organe. Toutefois, certains essais réalisés dans un modèle expérimental de souris ont abouti au déclenchement de cancers. Sachant que les cellules en cours de transformation maligne présentent elles-mêmes une plasticité et une capacité de prolifération accrues, une équipe du Centre de recherche en cancérologie de Lyon, dirigée par Fabrice Lavial, s’est demandé s’il existait des homologies moléculaires entre les processus de reprogrammation cellulaire et de transformation tumorale. Pour tester cette hypothèse, les chercheurs ont travaillé avec des fibroblastes de souris, le modèle d’étude privilégié de la reprogrammation cellulaire. Ils ont induit la reprogrammation d’un premier lot de cellules et la transformation tumorale d’un second lot. Ils ont ensuite analysé le profil d’expression des gènes au cours du temps dans chacun des deux lots, cellule par cellule. Grâce à des outils de bio-informatique, ils sont ainsi parvenus à reconstruire la trajectoire moléculaire de chaque cellule. Résultat des courses : « Nous avons observé des profils d’expression génique rares et communs au début des deux processus : les trajectoires de reprogrammation et de transformation se croisent de manière transitoire avant de bifurquer », résume Fabrice Lavial. Ainsi, la plasticité cellulaire est notamment contrôlée par des voies identiques qui impliquent le facteur de transcription Atoh8. « Ce facteur est indispensable à l’acquisition et au maintien de la plasticité cellulaire. Dès que son expression diminue, les cellules s’engagent dans une des deux voies : reprogrammation en cellules pluripotentes ou transformation en cellules tumorales ». « C’est la première fois qu’un programme commun à ces deux trajectoires est mis en évidence. Ces connaissances sont capitales pour parvenir à proposer des stratégies de reprogrammation in vivo qui favoriseraient l’activation des voies spécifiques à ce processus, sans risquer de déclencher un cancer », estime Fabrice Lavial. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Une étude réalisée par des neurologues de l’Université de Bristol confirme qu’un manque de sommeil peut augmenter le risque de développer la maladie d’Alzheimer. Pour parvenir à cette conclusion, les scientifiques ont analysé le liquide céphalo-rachidien de 332 participants et se sont aperçus que ceux qui dormaient moins de 7 heures avaient des niveaux accrus de protéines t-tau, un biomarqueur clé pour mesurer le risque d'Alzheimer. Par le passé, des recherches avaient déjà mis en lumière les conséquences dévastatrices d’une mauvaise nuit sur la santé. Il avait notamment été prouvé qu’un manque de sommeil (dormir cinq heures ou moins par nuit) pouvait exposer les individus à un risque plus élevé de développer plusieurs maladies chroniques telles que les maladies cardiaques, la dépression, le cancer ou le diabète. Pour rappel, la maladie d’Alzheimer est une pathologie neurodégénérative qui entraîne un dysfonctionnement des connexions entre les neurones. Environ 225 000 nouveaux cas sont diagnostiqués chaque année en France. Si la maladie frappe le plus souvent des personnes âgées, elle peut aussi survenir beaucoup plus tôt. Selon les chiffres rapportés par la Fondation Recherche Alzheimer, 33 000 patients, aujourd’hui âgés de moins de 60 ans, en sont atteints. Article rédigé par Georges Simmonds pour RT Flash Oxford Academic | | | |
| Le diagnostic préimplantatoire (DPI) est un test génétique réalisé sur des embryons produits par fécondation in vitro, permettant d’identifier ceux porteurs d’une grave maladie monogénique, comme la mucoviscidose, avant leur implantation dans l’utérus. En plus des obstacles réglementaires à son usage, variables d’un pays à l’autre, le DPI est pour l’instant limité techniquement car réalisé à partir du prélèvement d’une seule cellule embryonnaire par biopsie, trois ou cinq jours après fécondation, ce qui donne peu d’ADN à analyser quand on le compare par exemple au diagnostic prénatal – « dans ce cas, ce sont des centaines de cellules qui sont prélevées lors de l’amniocentèse », indique Jérôme Massardier, gynécologue-obst& eacute;tricien aux Hospices civils de Lyon (Rhône) et chef de service en charge du diagnostic prénatal à l’hôpital Femme Mère Enfant, à Bron. Ce prélèvement monocellulaire freine les prétentions du DPI à évaluer précisément le risque de développer un diabète de type 1 ou 2, des maladies cardiovasculaires, une schizophrénie, ou encore certains cancers héréditaires comme le cancer du sein lié à une mutation du gène BRCA1. En somme, toutes les maladies dites "polygéniques multifactorielles". "Multifactorielles" parce que causées par une interaction complexe entre différents facteurs (facteurs environnementaux, facteurs génétiques), et "polygéniques" car plusieurs gènes favorisent la maladie. Potentiellement graves, ces maladies sont souvent indétectables au stade fœtal et se déclarent à l’âge adulte. Le DPI actuel est d’autant moins fiable dans le cas des maladies polygéniques multifactorielles que celles-ci ne dépendent pas d’un seul variant génétique, mais d’une myriade. Ces variants à risque ne causent pas la maladie mais se contentent d’être corrélés à un risque accru de la développer, sans que l’on comprenne toujours les dessous de cette corrélation ou l’importance de ces facteurs génétiques dans le déclenchement de la maladie par rapport aux facteurs environnementaux (mode de vie, alimentation…). Le risque "génétique" de développer une maladie polygénique multifactorielle est résumé par son score de risque polygénique, qui est établi en prenant en compte les nombreux gènes susceptibles d’augmenter le risque de développer cette maladie. Toutefois, ce verrou technique que constitue l’extraction de l’ADN d’une seule cellule pour calculer un bon score de risque polygénique pourrait bientôt appartenir au passé. En effet, une équipe de chercheurs travaillant aux États-Unis a publié en mars dernier, dans la revue Nature Medicine, une étude présentant une nouvelle technique de DPI. Celle-ci permet, selon eux, une prédiction très précise du score de risque polygénique associé à douze maladies polygéniques. Le principe de leur méthode ? Associer le génotypage de l’ADN de la cellule embryonnaire – c’est-à-dire la caractérisation de certains variants génétiques – avec la reconstruction de tout l’ADN embryonnaire sur la base de la séquence complète d’ADN de ses deux parents. « Les auteurs arrivent à avoir la séquence génomique des embryons analysés in vitro en reconstituant les parties manquantes à partir de la séquence des parents », confirme Pierre Ray, coordinateur du centre de DPI au CHU de Grenoble Alpes. La méthode permet théoriquement de déterminer le génome complet de l’enfant à naître, aux quelques mutations de novo près – les variants génétiques apparus par mutation spontanée lors des premières divisions cellulaires de l’embryon. Les auteurs ont testé rétrospectivement l’efficacité de cette technique sur dix enfants nés après la mise au point de ce DPI "nouvelle génération", dont ils ont prélevé après naissance le génome complet. Verdict ? La reconstruction génétique est correcte à plus de 99 % dans les régions génomiques utilisées pour calculer le score de risque polygénique de plusieurs maladies multifactorielles, comme le cancer du sein héréditaire lié à une mutation du gène BRCA1. Calculer le risque de contracter une maladie multifactorielle à partir de l’ADN d’une cellule embryonnaire est-il donc déjà à portée de main, comme dans le film Bienvenue à Gattaca (1997) mettant en scène une société pratiquant l’eugénisme à grande échelle, et déterminant la position sociale de ses membres sur la base de la « perfection » de leur génome ? « On s’oriente doucement vers ces scores de prédiction, c’est assez effrayant », commente Pierre Ray. Cependant, la dystopie hollywoodienne est encore loin. Tout d’abord parce que le test mis au point par l’équipe américaine demeure très perfectible. « Les auteurs reconnaissent à raison que les scores de risque polygénique ont une précision limitée en dehors des populations d’ascendance européenne », confirment Josephine Johnston, bioéthicienne à l’Université d’Otago (Nouvelle-Zélande), et Lucas J. Matthews, professeur de bioéthique à l’Université Columbia de New York (États-Unis). De plus, les chercheurs reconnaissent dans leur article que « l’utilité clinique d’établir ces scores de risque polygénique reste à prouver ». De fait, « les connaissances ne sont pas suffisantes à ce jour pour prédire un risque global, mais il y a un intérêt quand un variant fort est identifié préalablement chez les parents », précise Pierre Ray. Enfin, cette amélioration des capacités du DPI soulève des questionnements éthiques. S’il venait à être commercialisé, cela entraînerait à coup sûr, selon Josephine Johnston et Lucas J. Matthews, « un risque d’accès inégal selon les familles, en raison de son coût ». Article rédigé par Georges Simmonds pour RT Flash La Recherche | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|