| | | | | | | Edition du 11 Septembre 2020 |
| |
|
| Edito Pour la première fois dans l’Histoire de l’Humanité, la population mondiale va décroître
L’évolution du nombre d’êtres humains sur Terre repose, il faut toujours le rappeler, sur de multiples conjectures et estimations car, si la population mondiale est connue avec une relative précision depuis deux siècles, il n’en va pas de même pour les périodes plus reculées : Moyen Âge et plus encore Antiquité et Préhistoire. Apparu il y a au moins 300 000 ans, il aura fallu à Homo sapiens un temps immense pour se répandre sur l’ensemble de la planète. On estime qu’à la naissance des premières grandes civilisations, il y a 7000 ans, il y avait sans doute moins de 10 millions d’êtres humains sur Terre. Au début de notre ère, il y a 2000 ans, la population mondiale devait être d’environ 250 millions d’êtres humains, ce qui ne représentait encore, en moyenne, qu’une densité d’à peine deux habitants par km2 sur notre planète… Il fallut attendre 1830 pour que la population mondiale franchisse la barre symbolique du milliard d’habitants, puis encore un siècle, 1930, pour qu’elle atteigne les deux milliards d’habitants. C’est à partir de cette date qu’on assista à une véritable accélération de la croissance démographique mondiale : quatre milliards d’habitants en 1975, six milliards en 1999 et huit milliards prévus l’an prochain, en 2021… Il y a un an, l’Organisation des Nations unies (ONU) publiait sa dernière grande étude prospective sur l’évolution de la population mondiale. Ce travail prévoit que la population mondiale va certes continuer à croître, mais, dans le même temps, on risque d’assister à un net déclin démographique dans plusieurs régions du Monde (Voir ONU). Ces dernières prévisions de l’ONU estiment, avec une très forte probabilité que nous serons entre 8,5 et 8,6 milliards en 2030. En 2050, toujours selon l’ONU, nous devrions être 9,7 milliards, pour atteindre finalement les 10, 9 milliards en 2100. Cette étude de l’ONU révèle un apparent paradoxe qui s’explique par la grande inertie des évolutions démographiques : la population mondiale poursuit sa croissance, alors que chaque famille a de moins en moins d’enfants. En 1990, il y avait en moyenne 3,2 naissances par femme en âge de procréer ; aujourd’hui, ce taux est tombé à 2,5 et il devrait encore descendre pour atteindre 2,2 en 2050, selon l’ONU. N’oublions pas que 2,1 naissances sont nécessaires pour assurer le renouvellement des générations. Cette baisse tendancielle globale de la fécondité au niveau mondial cache cependant de grandes disparités entre les différentes régions du Monde : c’est ainsi que le nombre de naissances reste en moyenne de 4,6 par femme en Afrique subsaharienne, de 3,4 en Océanie (hors Australie et Nouvelle-Zélande ), de 2,9 en Afrique du Nord et à l’ouest de l’Asie. Selon ces dernières prévisions de l’ONU, « les deux tiers de la croissance prévue de la population mondiale d’ici à 2050 se produiront, même si la fécondité dans les pays à fécondité élevée tombait immédiatement à environ 2 naissances par femme sur toute une vie ». Cette prévision s’applique également pour les pays qui n’ont pas encore rejoint cette tendance mondiale allant vers une forte baisse du nombre de naissances, pays qui représentent ensemble encore plus de la moitié de la population mondiale. L’étude de l’ONU souligne que les naissances sont devenues inférieures aux décès dans 55 pays – soit près d’un quart des 235 Etats ou territoires analysés. Pour la moitié de ces territoires, l’étude prévoit un déclin démographique d’au moins 10 % d’ici le milieu du siècle. Ce sera notamment le cas pour le Japon, la Bulgarie, la Grèce ou le Portugal. Ces prévisions nous indiquent que le nombre d’habitants d’Amérique du Nord et d’Europe devrait passer de 1,114 milliard en 2019 à 1,132 milliard en 2030, avant de tomber à 1,120 milliard à la fin du siècle. A contrario, neuf pays vont représenter plus de la moitié de l’augmentation attendue de la population mondiale d’ici 40 ans : Inde, Nigeria, Pakistan, République dé ;mocratique du Congo, Ethiopie, Tanzanie, Indonésie, Egypte et Etats-Unis. A court terme – 5 ans – un premier basculement significatif va avoir lieu : la population de la Chine, avec ses 1,43 milliard d’habitants, va être rattrapée puis dépassée par celle de son grand voisin indien (1,37 milliard d’habitants), dont la natalité est sensiblement plus élevée (2,24 pour l’Inde, contre 1,68 seulement pour la Chine).L’Empire du Milieu, avec sa natalité très basse et sa population vieillissante devrait en outre perdre 34 millions d’habitants au cours des trente prochaines années… Mais c’est incontestablement le continent africain qui va connaître la plus forte croissance démographique, avec une population totale qui devrait passer d’un milliard d’habitants aujourd’hui…à 2,4 milliards d’habitants en 2050. La population africaine, qui représente aujourd’hui 12 % de la population mondiale, en représentera 25 % dans trente ans. Dans un tel scénario démographique, les experts de l’ONU soulignent que les flux de migration constituent désormais un facteur-clédes évolutions de population. Pourtant, l’ONU prévoit une émigration nette deux fois moins importante durant cette décennie par rapport à la précédente. Mais, il y a quelques semaines, une autre étude réalisée par l’Institute for Health Metrics and Evaluation (IHME), un prestigieux centre de recherche situé à Seattle et dirigé par Christopher Murray, est venue remettre en cause de manière très solide ces prévisions de l’ONU. Cette nouvelle étude, aux conclusions pour le moins décapantes, prévoit en effet que la population mondiale va décliner dès la deuxième moitié du siècle pour atteindre 8,8 milliards de Terriens en 2100, soit 2 milliards d’habitants de moins que les projections de l’ONU, ce qui est tout à fait considérable. Cette étude prévoit un immense bouleversement des équilibres de la population mondiale. Selon ce travail, la population mondiale pourrait atteindre son pic en 2064, à 9,7 milliards d’individus, et entamer alors un inexorable déclin pour redescendre à 8,8 milliards de Terriens à la fin du siècle - Voir The Lancet
Selon cette étude de l’IHM, ce déclin démographique mondial, bien plus important qu’attendu, sera principalement provoqué par une amélioration plus rapide que prévue de la condition féminine, avec notamment un accès massif à l’éducation et à la contraception, qui pourrait faire passer le taux moyen de fécondité de 2,37 aujourd’hui à 1,66 enfant par femme en 2100. Dans la grande majorité des pays étudiés (183 sur 195), ce taux descendrait sous la barre des 2,1 enfants par femme - seuil nécessaire pour maintenir la population sans apport migratoire - d’ici la fin de ce siècle. Ainsi, la Chine pourrait perdre près de la moitié de ses habitants au cours de ce siècle (1,4 milliard aujourd’hui, 730 millions en 2100), avec un déclin massif du nombre de ses actifs. Les États-Unis, qui devraient bientôt perdre leur place de première puissance économique du Monde, pourraient ainsi repasser devant la Chine d’ici la fin du siècle, à condition, toutefois, que l’immigration continue à compenser la fécondité américaine en baisse, selon l’étude. L’Inde, qui deviendrait la deuxième puissance économique mondiale au cours de la seconde partie de ce siècle, verrait, pour sa part, le nombre de ses actifs se réduire d’un quart, passant de 762 millions à 578 millions à la fin du siècle. Dans ce nouveau scenario, L’Asie et l’Europe connaîtraient une perte massive de population. La population du Japon passerait de 128 à 60 millions, celle de la Corée du Sud, de 53 à 27, celle de l’Espagne, de 46 à 23, celle de l’Italie, de 61 à 31). Seuls quelques pays développés européens verraient leur population se maintenir, en raison d’une fécondité proche du seuil de remplacement et d’un solde migratoire positif : le Royaume-Uni, dont la population passerait de 67 millions à 71 millions en 2100…et la France qui attendrait les 67 millions d’habitants à la fin du siècle. En revanche, l’Afrique sub-saharienne verrait sa population tripler (1 à 3 milliards), tirée notamment par le Nigeria (206 à 790 millions d’habitants), qui deviendrait en 2100 le deuxième pays le plus peuplé au monde derrière l’Inde mais devant la Chine. Seules trois régions du Monde verraient leur population augmenter par rapport à 2017 : l’Afrique subsaharienne (de 1 milliard d’habitants aujourd’hui à 3 milliards en 2100), l’Afrique du Nord (978 millions d’habitants en 2100) et le Moyen-Orient (600 millions). La pyramide des âges mondiale serait bien entendu profondément bouleversée par ce déclin et ce vieillissement démographique d’une ampleur sans précédent : dans ce scenario, il y aurait 2 milliards d’habitants de plus de 60 ans en 2050, et 2,4 milliards de plus de 65 ans en 2100 (dont 866 millions de plus de 80 ans, soit six fois plus qu’aujourd’hui), pour seulement 1,7 milliard de moins de 20 ans. Ces transformations de grande ampleur provoqueraient des bouleversements socio-économiques considérables, marqués notamment par une population active mondiale en contraction rapide (à l’exception de l’Afrique) et de nouvelles dépenses sociales et médicales sans doute multipliées par dix, dues au vieillissement général de la population mondiale, dont l’espérance de vie pourrait dépasser les 100 ans, dR 17;ici la fin de ce siècle… Mais pourquoi ces prévisions de l’IHME, à partir des mêmes données démographiques, débouchent-elles sur un scenario démographique mondial si différent de celui de l’ONU d’ici 2100 ? Cela s’explique par le fait que les dernières prévisions de l’ONU reposent sur l’évolution passée des indicateurs de mortalité, de fécondité et de migration pour prédire des trajectoires à long terme. Les prévisions de l’IHME sont plus riches ; elles intègrent, pour leur part, différents scénarios de choix politiques, éducatifs et sanitaires, susceptibles d’influer fortement sur la fécondité. Par exemple, cette étude de l’IHME prévoit une chute des taux de fécondité à 1,8 à la fin du siècle, en Afrique subsaharienne, une chute plus importante que celle prévue par l’ONU. Mais, comme le souligne le professeur Vollset, « Si le déclin de la population mondiale peut être une bonne nouvelle pour réduire les émissions de carbone et la pression sur les écosystèmes, le vieillissement va entraîner d’immenses problèmes économiques en raison d’un nombre d’actifs et de contribuables réduit ». Et l’on parvient à peine à imaginer ce Monde, pourtant pas si lointain, dans lequel le nombre de personnes âgées de 80 ans ou plus devrait tripler, passant de 143 millions en 2019 à 426 millions en 2050. Quant au nombre de personnes dépendantes, ou en perte d’autonomie, il pourrait dépasser la barre des 200 millions à cette échéance, pour atteindre plus d’un demi-milliard de personnes à la fin du siècle. Selon l’OMS, les différentes formes de démence qui progressent rapidement, en raison du vieillissement de la population, pourraient, à elles seules, tripler d’ici 2050, pour atteindre, 152 millions de personnes. La France ne sera pas épargnée par les conséquences socio-économiques et médicales de cette évolution démographique et l’Insee prévoit, dans son rapport de juillet 2019, que notre pays pourrait compter, dès 2050, 4 millions de personnes de plus de 60 ans en perte d’autonomie, contre 2,5 millions aujourd’hui. Problème : la population active mondiale va connaître un inexorable déclin au cours de ce siècle, sous le double effet du vieillissement de la population et de la substitution des robots et de l’intelligence artificielle aux travailleurs humains. La population active chinoise, dont la moyenne d'âge augmente rapidement, pourrait, par exemple, chuter de 23 % d'ici 2050. Certains experts prévoient même que la Chine et l’Inde réunies pourraient perdre 320 millions d’emplois d’ici 2030, ce qui représente presque 10 % du total des emplois dans le Monde en 2018. Ce nombre d’actifs, même tirés par l’Afrique (+ 1,2 milliard d’actifs d’ici 2050) va tendre, sous l’effet du vieillissement massif de la population mondiale, à se stabiliser, puis à diminuer au cours de la seconde partie de ce siècle, pour se rapprocher du ratio d’un actif, pour un inactif. Si le scenario démographique mondial prévu par l’IHME, se réalise, l’Humanité va se retrouver face à un redoutable défi : comment prendre en charge, soigner et accompagner dans leur vie quotidienne ces centaines de millions de personnes très âgées et dépendantes, sachant qu’il n’y aura tout simplement, même en ayant recours à une immigration massive, pas assez d’actifs disponibles pour assurer à la fois les tâches de production et l’ensemble des services à la personne dont auront absolument besoin nos sociétés vieillissantes. L’exemple le plus emblématique de ce monde en déclin démographique est sans doute le Japon. Ce pays, qui compte aujourd'hui 126 millions d'habitants, risque de perdre un tiers de sa population d’ici 2050 et ne parvient déjà plus à pourvoir les emplois nécessaires au fonctionnement de son économie, qu’il s’agisse du secteur de la production, du bâtiment, du commerce ou des services destinées aux seniors. Face à cette situation, l’Etat et la société japonaise ont misé sur le développement massif conjoint des trois technologies de rupture : la robotique personnelle, l’intelligence artificielle et la 5G. En articulant et en combinant ces trois outils technologiques, il sera possible demain, pour un travailleur œuvrant dans le secteur du bâtiment, de la production automobile ou encore de la santé, de démultiplier sa c apacité de travail dans le temps et l’espace, en pilotant et en contrôlant à distance simultanément plusieurs robots dotés d’une forte autonomie d’action. La chaîne japonaise de commerce FamilyMart a ainsi développé en 2019 un concept de supermarché qui repose sur l’automatisation du parcours client, du parking du magasin, jusqu'au règlement automatique des achats par Scan du chariot. Cette firme, après une expérimentation concluante, a décidé d’étendre cette solution dans 20 magasins situés dans la banlieue de Tokyo d’ici 2022. Mais FamilyMart veut à présent aller plus loin dans la gestion automatique et intelligente de ses magasins et entrepôts. En collaboration avec la société Telexistence, FamilyMart est en train d’apprendre à des robots humanoïdes, grâce à des opérateurs humains, à faire face à une multitude de situation et à réaliser des gestes et mouvements complexes, de manière à pouvoir réapprovisionner en permanence, de façon autonome, les rayons de ses magasins. Les robots, eux aussi de plus en plus polyvalents, autonomes et agiles, sont également de plus en plus présents dans les hôpitaux et maisons de retraite japonaises. Ils déchargent le personnel humain d’une multitude de tâches répétitives, fastidieuses ou pénibles, comme la distribution des médicaments, le transport et la surveillance des malades ou encore le nettoyage des bâtiments. Cette aide robotique permet de faire face à la pénurie de main d’œuvre et redonne aux soignants la capacité de se recentrer sur le travail à haute valeur ajoutée cognitive. Cette révolution de l’assistance robotique intelligente, combinée au déploiement de la 5G et de l’Internet des objets, n’en est qu’à ses débuts et elle va s’amplifier bien plus rapidement que prévue, pour se diffuser dans tous les secteurs d’activité économique et sociaux, ainsi que dans les foyers, où elle permettra d’ici quelques années, de soigner à distance et de maintenir à domicile tous nos ainés, même ceux qui ont malheureusement perdu leur autonomie et sont atteints de pathologies graves. J’ai la profonde conviction que, d’ici une génération, le nombre total de robots d’assistance à la personne, de toute nature, qu’il s’agisse de machines humanoïdes ou des micro et minirobots qui se fonderont dans notre environnement quotidien, sera bien supérieur à celui des êtres humains vivant sur notre planète. Il est d’ailleurs probable que nos enfants seront si habitués à côtoyer en permanence toutes sortes de machines intelligentes et autonomes qu’ils ne se rendront même plus compte de leur présence…Et pourtant, ces auxiliaires robotiques deviendront indispensables, surtout dans les perspectives démographiques que je viens d’évoquer, pour assurer non seulement le bon fonctionnement de notre industrie et de notre économie, mais également pour maintenir et enrichir la qualité de vie des humains, à commencer par les plus fragiles d’entre eux, malades ou personnes âgées. Il est dommage, qu’à l’exception de quelques pays clairvoyants, comme le Japon, la Corée du sud ou Taïwan, nos sociétés tardent à anticiper les conséquences immenses de ce choc démographique annoncé et ne se préparent pas suffisamment à cette arrivée massive d’intelligences mobiles, autonomes et polyvalentes, avec lesquelles nous allons devoir apprendre à vivre… Nous devons dès à présent réfléchir collectivement, sans craintes a priori, mais sans naïveté excessive, sur les questions sociales, politiques et éthiques très profondes que va poser cette coexistence inéluctable entre l’espèce humaine et ces nouvelles entités robotiques de plus en plus humanisées qui vont nous accompagner tout au long de notre vie. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Des chercheurs de l’Université technologique de Nanyang à Singapour ont décrit un nouveau dispositif destiné à réduire le bruit venu de l’extérieur tout en gardant sa fenêtre ouverte. Une invention particulièrement prometteuse alors que la vie urbaine devient plus difficile. En effet, les habitants des grandes villes souffrent de plus en plus de la chaleur estivale à cause du réchauffement climatique et il est parfois difficile de garder sa fenêtre ouverte en milieu urbain afin d’obtenir un peu de fraîcheur. Comme le décrit l’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail), le bruit possède des effets néfastes sur la santé mentale et il est « capable d’influencer une partie des activités inconscientes de l’orga nisme (rythme cardiaque, respiration, digestion) de jour comme de nuit ». Le prototype mis au point par les chercheurs prend ainsi tout son sens : il est capable de réduire les sons urbains de moitié grâce à une technologie similaire à celle exploitée par les écouteurs à réduction de bruit comme les AirPods Pro d’Apple. Le professeur Gan Woon Seng, auteur principale de l’étude, explique : « Par rapport aux casques à réduction de bruit, ce que nous avons réalisé est bien plus difficile sur le plan technique, car nous devions contrôler le bruit dans une grande zone ouverte, plutôt qu’autour de l’oreille uniquement ». Pour parvenir à un tel résultat, les scientifiques ont installé 24 haut-parleurs de 4,5 cm sur les grilles de sécurité d’une fenêtre typique de Singapour. Ils ont ensuite programmé ces derniers pour qu’ils émettent un son exactement à la même fréquence que ceux venus de dehors et analysés grâce à un capteur. Les chercheurs ont ainsi reproduit des bruits de circulations routière, ferroviaire et aérienne, et ont remarqué que leur dispositif pouvait réduire le son de près de 50 % pour les fréquences allant de 300 à 1 000 Hz. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Deux interventions de robotique chirurgicale réalisées en France, l’une en juin à Montpellier, l’autre en juillet à l'Institut Gustave Roussy (Villejuif), ont permis de détruire de manière très précise des tumeurs de foie. Dans les deux cas, à Villejuif comme à Montpellier, le même dispositif issu de la start-up française Quantum Surgical a été utilisé avec un objectif commun : traiter sans ouvrir en passant à travers la peau des lésions tumorales situées profondément au niveau du foie. « La procédure s'est parfaitement déroulée, le robot a rempli sa mission avec succès. Ce premier patient va bien, il est sorti de l'hôpital le lendemain », s'est réjoui le Professeur Thierry de Baere. Satisfecit identique il y a un mois à Montpellier du côté de l'équipe du Professeur Boris Guiu, chef du département de radiologie diagnostique et interventionnelle au CHU Saint-Eloi. En pratique, l'abord traditionnel chirurgical de ces localisations tumorales hépatiques est en effet toujours très délicat car à ce niveau, qu'il s'agisse de tumeurs ou de métastases, tout se joue en profondeur, à proximité d'autres organes dans des zones généreusement pourvues en gros vaisseaux à fort risque hémorragique. C'est tout l'intérêt de l'intelligence artificielle ici associée à la robotique. Tout commence par des images réalisées avant l'intervention permettant aux équipes de radiologie dite interventionnelle et chirurgicale, de planifier les paramètres du geste opératoire : c'est-à-dire de déterminer la position, l'axe et la profondeur à laquelle il faudra introduire l'aiguille jusqu'au foie afin d'y délivrer le traitement - ici la chaleur par micro-ondes - pour détruire une à une les m étastases comme à Villejuif, ou la tumeur primaire comme à Montpellier. Article rédigé par Georges Simmonds pour RT Flash Sciences Et Avenir | | ^ Haut | |
|
| | | Développées au début des années 1990, les cellules solaires fabriquées à partir de colorants organiques présentent l’avantage d’être peu coûteuses à fabriquer, mais surtout d’être semi-transparentes. Grâce à un processus photoélectrochimique directement inspiré par la photosynthèse végétale, ces colorants photosensibles sont capables de produire de l’électricité lorsqu’ils sont exposés au soleil. Une équipe du CEA, en collaboration avec l’Université Pablo de Olavide (Séville, Espagne) et l’entreprise suisse Solaronix, a inventé une nouvelle famille de colorants dont la couleur varie en fonction de l’intensité lumineuse. Ces recherches ouvrent la voie à la conception de vitrages photovoltaïques dont la transparence varie selon l’ensoleillement. Renaud Demadrille, ingénieur-chercheur au CEA, nous parle de cette nouvelle technologie. Ces cellules solaires semi-transparentes composées d’une nouvelle famille de colorants organiques ont la particularité d’être photochromes. Ce terme signifie que leur couleur et leur transparence varient en fonction de l’intensité lumineuse. Lorsque l’ensoleillement est élevé, ces cellules solaires deviennent moins transparentes afin de filtrer davantage de lumière et ainsi produire plus d’électricité. Inversement, lorsque l’ensoleillement est faible, ces cellules deviennent plus transparentes afin de laisser traverser la lumière mais produisent tout de même un peu d’énergie. Sur le plan international, c’est la première fois qu’une équipe de recherche démontre une performance électrique de ces cellules photosensibles associée à une capacité à changer de couleur et de transparence. Le premier usage concerne les vitres des façades de bâtiments afin de produire de l’électricité. La couleur de ces vitrages photovoltaïques s’auto-adaptera en fonction de la lumière extérieure transmise avec une transparence qui variera de 30 à 60 %. À l’intérieur du bâtiment, la luminosité sera donc suffisante afin que la visibilité dans les pièces soit acceptable. Dans le passé, d’autres technologies à base de cellules semi-transparentes ont été développées, comme les cellules de Grätzel, mais leur couleur et leur transparence ne varient pas. Pour les architectes à la recherche de vitres qui produisent de l’énergie, ces cellules de Grätzel se révèlent contraignantes puisque, pour atteindre des performances électriques correctes, elles doivent être peu transparentes alors qu’ils recherchent des vitrages laissant traverser suffisamment la lumière. Ces chercheurs pensent atteindre d’ici 5 ans une efficacité de conversion de l’ordre de 10 %. Une seconde application potentielle concerne l’équipement des toits ouvrants des véhicules électriques. Nos cellules solaires permettront de recharger les véhicules en énergie tout en apportant un confort à l’intérieur puisque la lumière de l’habitacle se régulera automatiquement selon les conditions météorologiques. Ces vitrages photovoltaïques photochromiques sont fabriqués à partir de deux pièces de verre recouvertes d’un oxyde transparent conducteur et qui servent chacune d’électrode. L’une des pièces est également recouverte de dioxyde de titane (TiO2). Nous incorporons, à l’intérieur de ces deux plaques de verre, un colorant organique qui va se greffer au dioxyde de titane. Nous injectons aussi un électrolyte liquide, cela peut être également un liquide ionique ou prendre la forme d’un gel polymère. Grâce à la combinaison des électrodes, du colorant et de l’électrolyte, un courant électrique va être généré. Concrètement, le colorant absorbe la lumière (les photons) et son état va alors transiter vers une forme « excitée » et ainsi injecter un électron dans l’une des électrodes. Ce colorant change alors d’état pour se présenter sous une forme « oxydée » puis, grâce à une réaction d’oxydo-réduction avec l’électrolyte, il va se régénérer, c’est-à-dire qu’il va récupérer un électron en provenance de l’autre électrode. Ce circuit électrique permet ainsi de produire de l’énergie et, au final, c’est le colorant qui est le siège de la conversion des photons en électrons. En changeant de couleur, il absorbe plus de photons pour produire plus d’électricité. Ces colorants photochromes sont actuellement utilisés pour fabriquer certains verres de lunettes dont la teinte, plus ou moins foncée, varie en fonction de l’intensité lumineuse. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Les chercheurs de la Cockrell School of Engineering de l’Université du Texas à Austin ont construit un nouveau type de batterie qui combine les nombreux avantages des options existantes tout en éliminant leurs principaux inconvénients et en économisant l’énergie. La plupart des batteries sont composées soit d’électrodes à l’état solide, comme les batteries lithium-ion pour l’électronique portable, soit d’électrodes à l’état liquide, y compris les batteries à flux pour les réseaux intelligents. Les chercheurs de l’UT ont créé ce qu’ils appellent une “batterie à métal liquide à température ambiante”, qui comprend le meilleur des deux mondes des batteries à l’état liquide et à l’état solide. Les batteries à l’état solide ont une capacité importante de stockage d’énergie, mais elles rencontrent généralement de nombreux problèmes qui les dégradent au fil du temps et diminuent leur efficacité. Les piles à l’état liquide peuvent fournir de l’énergie plus efficacement, sans la dégradation à long terme des appareils à l’état vendu, mais elles ne répondent pas aux besoins énergétiques élevés ou nécessitent des ressources importantes pour chauffer constamment les électrodes et les maintenir en fusion. Les électrodes métalliques de la batterie de l’équipe peuvent rester liquéfiées à une température de 20 degrés Celsius (68 degrés Fahrenheit), la plus basse température de fonctionnement jamais enregistrée pour une batterie à métal liquide, selon les chercheurs. Cela représente un changement majeur, car les batteries à métal liquide actuelles doivent être maintenues à des températures supérieures à 240 degrés Celsius. « Cette batterie peut offrir tous les avantages de l’état solide et de l’état liquide – notamment plus d’énergie, une stabilité et une flexibilité accrues – sans les inconvénients respectifs, tout en économisant de l’énergie », a déclaré Yu Ding, chercheur postdoctoral dans le groupe de recherche du professeur associé Guihua Yu au sein du département de génie mécanique de Walker. La batterie comprend un alliage sodium-potassium comme anode et un alliage à base de gallium comme cathode. Dans cet article, les chercheurs notent qu’il pourrait être possible de créer une batterie avec des points de fusion encore plus bas en utilisant différents matériaux. La batterie à température ambiante promet plus de puissance que les batteries lithium-ion actuelles, qui constituent l’épine dorsale de la plupart des appareils électroniques personnels. Elle peut se charger et fournir de l’énergie plusieurs fois plus rapidement, ont déclaré les chercheurs. Grâce à ses composants liquides, la batterie peut être facilement mise à l’échelle, selon la puissance nécessaire. Plus la batterie est grande, plus elle peut fournir de puissance. Cette flexibilité permet à ces batteries d’alimenter potentiellement tout, des smartphones aux montres, en passant par les infrastructures qui sous-tendent le mouvement vers les énergies renouvelables. « Nous sommes ravis de voir que le métal liquide pourrait constituer une alternative prometteuse pour remplacer les électrodes conventionnelles », a déclaré le professeur Yu. « Compte tenu de la haute densité d’énergie et de puissance démontrée, cette cellule innovante pourrait être potentiellement mise en œuvre à la fois pour le réseau intelligent et l’électronique portable ». Les chercheurs ont passé plus de trois ans sur ce projet, mais le travail n’est pas encore terminé. Nombre des éléments qui constituent l’épine dorsale de cette nouvelle batterie sont plus abondants que certains des matériaux clés des batteries traditionnelles, ce qui les rend potentiellement plus faciles et moins coûteux à produire à grande échelle. Cependant, le gallium reste un matériau coûteux. Trouver des matériaux de substitution capables d’offrir les mêmes performances tout en réduisant le coût de production reste un défi majeur. L’étape suivante pour augmenter la puissance de la batterie à température ambiante consistera à améliorer les électrolytes, - les composants qui permettent à la charge électrique de circuler dans la batterie. Article rédigé par Georges Simmonds pour RT Flash Wiley | | ^ Haut | |
|
| | | Des scientifiques ont découvert un amas d’étoiles au sein de la Voie lactée qui ne semble pas venir de notre galaxie. Baptisés « Nyx », ces 250 astres pourraient indiquer la fusion d’une galaxie naine avec la nôtre. Les chercheurs ont découvert ces nouvelles étoiles alors qu’ils cherchaient à observer les mouvements des astres et de la matière noire au sein de la Voie lactée, dans l’espoir de comprendre leur origine et leur destination. « Si l’on repère des amas d’étoiles qui se déplacent de concert d’une façon particulière, cela veut généralement dire qu’il y a une raison derrière leur regroupement », explique Lina Necib, chercheuse en physique théorique au California Institute of Technology (Caltech), qui a dirigé l̵ 7;étude. En étudiant les données récoltées, les scientifiques ont découvert une énorme structure qu’ils n’avaient pas anticipée. Un amas de 250 étoiles évoluant au sein de la Voie lactée et se dirigeant vers son centre. « Mon premier réflexe a été de penser qu’il y avait un bug », raconte Necib. « Alors je n’en ai parlé à aucun de mes collègues pendant trois semaines. Et puis j’ai fini par réaliser que ce n’était pas un bug, c’était une découverte bien réelle ». Lina Necib a bientôt compris que l’amas était un flux d’étoiles ayant trouvé leur chemin jusque dans notre galaxie. Elles n’avaient jamais été aperçues auparavant. Il a été baptisé Nyx, du nom de la déesse grecque de la nuit. Les chercheurs vont maintenant mener d’autres études sur Nyx, afin de comprendre d’où peuvent venir ces mystérieuses étoiles et comment elles sont arrivées là. Leur première hypothèse est qu’elles appartiendraient à une galaxie naine qui aurait fusionné avec la Voie lactée, mais cette hypothèse reste à démontrer. Article rédigé par Georges Simmonds pour RT Flash Independent | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Selon l'Organisation météorologique mondiale, la température moyenne mondiale de chacune des cinq prochaines années devrait être supérieure d'au moins 1 degré par rapport à la fin du 19ème siècle. Il y a même une chance sur 5 que la température moyenne soit de plus de 1,5°C supérieure par rapport aux valeurs préindustrielles pendant au moins une de ces années. Pratiquement aucune région n'est épargnée, à l'exception de certaines zones océaniques australes. « Ce rapport prédit qu'il y a au moins 70 % de chances qu'au moins un mois au cours des cinq prochaines années dépasse cette limite de 1,5 degré. Et il y a une chance sur 5 qu'une année entière puisse dépasser cette limite. Cela montre à quel point nous nous rapprochons de ce que l'accord de Paris tente d'empêcher », explique Maxx Dilley, de l'Organisation météorologique mondiale. « Ce n'est pas impossible d'arrêter cela. Mais tout retard ne fait que réduire la fenêtre d'opportunité pour inverser ces tend ances et limiter la hausse des températures », ajoute-t-il. La température moyenne du globe est déjà supérieure d'1,0°C aux valeurs préindustrielles. Les cinq dernières années ont été les plus chaudes jamais enregistrées. L’objectif de l'Accord de Paris sur le climat s'est fixé pour objectif de limiter l'augmentation de la température mondiale à moins de 2 degrés. Comme l'explique l'OMM, ces prévisions tiennent compte des variations naturelles du climat et de l'influence des activités humaines mais elles n'incluent pas les modifications des émissions de gaz à effet de serre enregistrées pendant le confinement. Article rédigé par Georges Simmonds pour RT Flash OMM | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs américains de l’Université de l’Iowa ont montré que les envies de grignoter entre les repas sont liées à des cellules cérébrales spécifiques, influencées par une hormone. L’équipe scientifique est partie d’un constat : l’hormone appelée FGF21, pour facteur de croissance des fibroblastes 21, est impliquée dans la régulation de l’énergie, le contrôle du poids et la sensibilité à l’insuline. Dans leur étude, les chercheurs ont cherché à localiser la zone d’action de cette hormone dans le cerveau. « Cela nous a fourni des perspectives intéressantes sur la manière dont cela régule la consommation de sucre », explique Matthew Gillum, co-auteur de l’étude. L’hormone FGF21 cible des neurones dits glutamatergiques, cela lui permet d’agir sur les envies de sucre et sur sa consommation. Elle a aussi une action sur des neurones situés sur l’hypothalamus ventromédial : elle renforce leur sensibilité au glucose, ce qui permet de réduire l’ingestion de sucre. Selon le niveau de cette hormone, un individu aura plus ou moins envie d’en-cas sucrés et de grignotage. Cette découverte a été complexe car cette hormone est difficile à percevoir : elle s’exprime à des niveaux très bas, précisent les chercheurs. Ils souhaitent désormais développer leurs investigations pour permettre l’élaboration d’un traitement. Des médicaments agissant sur FGF21 sont déjà en cours de test, mais ces nouvelles informations sur son action pourraient augmenter leur efficacité. L’objectif est d’agir sur la consommation de sucre dans le cadre du traitement de l’obésité et/ou du diabète. L’obésité touche aujourd’hui 17 % des adultes en France, et le diabète concerne 3,7 millions de personnes, dont 90 % souffrent d’un type 2. Si pour ce dernier, plusieurs médicaments permettent de contrôler la glycémie, peu de médicaments sont disponibles pour prendre en charge l’obésité. Article rédigé par Georges Simmonds pour RT Flash UOI | | | |
| Notre cerveau a un besoin en énergie si fort qu'il est disproportionné par rapport à sa masse. Cette énergie provient de processus métaboliques aérobies, grands consommateurs d'oxygène. Pour le bon fonctionnement de notre cerveau, l'apport d’oxygène est vital et influe directement sur la fonction des cellules nerveuses et gliales, qui assurent le bon fonctionnement des neurones. Si les besoins en oxygène de notre cerveau sont connus, sa relation avec l’activité neuronale reste un mystère. L’étude menée par des neurobiologistes allemands de l’Université Louis-et-Maximilien de Munich (LMU) est la première à mesurer et à corréler directement l'apport en oxygène et l’activité des cellules nerveuses. Pour ce faire, les chercheurs ont utilisé des capteurs électrochimiques afin de déterminer la concentration d'oxygène dans le cerveau et dans l'un des ventricules cérébraux. Ils ont mené leur test sur des grenouilles où ils ont contrôlé la quantité d'oxygène disponible dans le cerveau en inhibant l'activité des cellules nerveuses à l'aide de substances pharmacologiques. En se basant sur les cellules nerveuses qui contrôlent les mouvements des yeux, les scientifiques ont réussi à enregistrer directement la relation entre la consommation d'oxygène et l'activité des cellules nerveuses. Les résultats ont montré que l’oxygène disponible est immédiatement utilisé par les cellules pour synthétiser des substances riches en énergie. « Nous avons constaté que le cerveau est anoxique dans un environnement normal saturé d'air, ce qui signifie qu'aucun oxygène ne peut être mesuré », expose Hans Straka, l’un des trois auteurs de l’étude. Si plus du double de la concentration d’oxygène atmosphérique est disponible, le métabolisme énergétique est saturé et l’oxygène est présent en abondance dans le cerveau. « Nous avons également pu montrer qu'en fonctionnement normal, seulement environ 50 % de l'oxygène est utilisé pour l'activité des cellules nerveuses », ajoute le chercheur. « Ainsi, les 50 % restants sont nécessaires pour les cellules gliales et pour maintenir le taux métabolique de base des cellules nerveuses. Cependant, les cellules nerveuses avec une activité accrue consomment plus d'oxygène ». Pour bien comprendre comment notre cerveau traite les informations, la relation entre l’oxygène disponible et l’activité cérébrale est essentielle. Cette étude devrait poser les bases pour de futures recherches sur l’équilibre énergétique du cerveau, ainsi que sur la consommation d'oxygène pour diverses fonctions des cellules nerveuses. Elle pourrait également être pertinente d'un point de vue médical, par exemple pour mieux comprendre les conséquences d'une carence en oxygène dans le cerveau ou pour mieux interpréter les informations sur l'activité cérébrale obtenues avec les techniques d'imagerie, concluent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash BMC | | | |
| Certaines infections, comme le rhume, peuvent impacter la voix et la rendre plus basse. Mais, est-ce le cas pour la Covid-19 ? Est-il possible de détecter l’apparition du virus dans la voix des patients ? C’est à cette question qu’une équipe de chercheurs du laboratoire Lincoln du Massachusetts Institute of Technology (MIT) a tenté de répondre. En effet, les chercheurs ont trouvé des preuves de biomarqueurs vocaux, ou d'indicateurs mesurables, de la maladie dans des enregistrements vocaux de patients. « Ces biomarqueurs proviennent des perturbations causées par l'infection dans le mouvement des muscles à travers les systèmes respiratoire, laryngé et articulatoire », détaillent les chercheurs. En effet, l'inflammation du système respiratoire affecte l'intensité avec laquelle l'air est expiré lorsqu'une personne parle. Ainsi, l’infection impacterait bien la voix des patients même s’ils ne présentent pas de symptômes de la maladie. “Cet air interagit avec des centaines d'autres muscles potentiellement enflammés lors de son voyage vers la production de la parole. Ces interactions ont un impact sur le volume, la hauteur, la stabilité et la résonance de la voix - qualités mesurables qui forment la base de leurs biomarqueurs”, détaille l’étude. Les scientifiques ont alors écouté attentivement cinq discours de personnes testées positives au Covid-19 puis ont utilisé des algorithmes pour extraire des caractéristiques des signaux vocaux de chaque échantillon audio. Pour étudier les mouvements dans le larynx, ils ont mesuré la hauteur et la stabilité de la voix, deux indicateurs de la stabilité des cordes vocales. « Ces caractéristiques vocales servent de mandataires pour les mouvements sous-jacents des systèmes de production de la parole », explique Tanya Talkar, Ph.D. candidate au programme de biologie et technologie de la parole et de l'ouïe à l'Université Harvard. Grâce à leurs observations, les scientifiques ont remarqué que l’inflammation au Covid-19 pouvait provoquer un couplage excessif des muscles impactant ainsi la voix des patients. Ces résultats préliminaires suggèrent que les biomarqueurs dérivés de la coordination du système vocal peuvent indiquer la présence de Covid-19. Selon l’étude, cette découverte peut permettre d’élaborer des applications mobiles permettant de dépister les personnes atteintes par le virus et, notamment, les patients asymptomatiques. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Des bioingénieurs de l’Université de Houston qui viennent de créer un filtre à air capable de tuer le coronavirus apportent, dans la revue Materials Today Physics, une première réponse à la diffusion du virus par ventilation ou climatisation et une solution pour les établissements de santé. Un développement efficace également contre de multiples pathogènes déjà en cours de déploiement dans les lieux prioritaires, à risque élevé d'exposition. Le principe de ce filtre à air ? Fabriqué à partir de mousse de nickel, il capture, chauffe (à 200 degrés) et tue le coronavirus et les autres agents pathogènes. Il a été conçu au Texas Center for Superconductivity de l’Université du Texas et vient d’être testé avec succès au Galveston National Laboratory. Ce développement exploite les connaissances accumulées sur le COVID-19. On sait que le virus peut rester dans l'air pendant environ 3 heures, donc un filtre de climatisation devrait permettre de contrôler sa propagation dans les espaces climatisés ; on sait également que le virus ne peut pas survivre à des températures supérieures à 70 degrés Celsius, donc l’idée était d’utiliser un filtre chauffant ; à 200°C, il est possible de tuer le virus presque instantanément ; la mousse de nickel répond enfin à plusieurs contraintes clés : elle est poreuse et permet donc la circulation de l'air, elle est électriquement conductrice, ce qui permet de la chauffer, elle est flexible, donc plus facile à exploiter. Ces chercheurs rapportent ici que des tests viraux confirment que 99,8 % des coronavirus SARS-CoV-2, sont tués par le filtre en un seul passage. Le même filtre élimine également 99,9 % des spores de l'anthrax. Les applications sont multiples (et déjà en cours), non seulement dans les établissements de soins, mais dans les aéroports et dans les avions, dans les immeubles de bureaux, les écoles et même sur les navires de croisière, commente l’auteur principal, le Docteur Anderson, professeur de physique à l'UH. L’équipe a déjà conçu un modèle de bureau, capable de purifier l'air dans l'environnement immédiat d'un poste de travail. « Cette nouvelle technologie de protection de l'air intérieur offre une prévention de première ligne contre la transmission aéroportée et aérosolisée du SRAS-CoV-2 et sera à l'avant-garde des technologies disponibles pour lutter contre la pandémie actuelle et toutes les futures pandémies », concluent les auteurs. Le déploiement du dispositif a déjà commencé par les lieux prioritaires à risque élevé d'exposition (écoles, hôpitaux, établissements de soins de santé, transports en commun dont les avions). Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| La schizophrénie apparaît à l’adolescence ou à l’âge adulte et s’accompagne souvent de fausses croyances, de pensées paranoïaques et d’une tendance à voir ou entendre des choses qui n’ont aucune réalité. Le facteur de risque le plus important pour ce trouble est l’existence d’un proche parent atteint par la maladie : un frère ou une sœur sur dix de personnes souffrant de schizophrénie risque de développer cette affection, contre une personne sur 100 dans la population générale. Les scientifiques savent toutefois que la schizophrénie n’est pas causée par une variante génétique unique. Le trouble résulte plutôt d’une série de mutations, de duplications et de délétions dans l’ADN qui dérèglent le développement du cerveau. Pour cette raison, il n’est pas simple de déterminer qui risque de développer une schizophrénie. Comme les études génétiques ne livrent que lentement des indices sur les dizaines de gènes associés à la schizophrénie, le trouble doit être disséqué en traits mesurables observés tant chez les personnes atteintes de schizophrénie que chez les membres non affectés de leur famille, comme l’indique Michael Herzog, responsable du Laboratoire de psychophysique au sein de la Faculté des sciences de la vie de l’EPFL et co-auteur principal de l’étude publiée dans Nature Communications. Ces traits quantifiables appelés endophénotypes relient les symptômes d’un trouble aux facteurs de risque génétiques sous-jacents. À la recherche des endophénotypes de la schizophrénie, les chercheurs ont analysé les schémas cérébraux de 101 personnes atteintes de schizophrénie, de 43 de leurs frères et sœurs non affectés et de 75 personnes saines n’ayant pas rapporté d’antécédents familiaux de schizophrénie. Dirigée par Janir Ramos da Cruz, postdoctorant dans le laboratoire de Michael Herzog et dans le laboratoire de Patrícia Figueiredo à l’Université de Lisbonne, l’équipe a scanné les cerveaux des participants en utilisant la technique de l’électroencéphalogramme (ECG) au repos. Cette technique non invasive mesure l’activité électrique du cerveau via des électrodes fixées sur le crâne d’individus détendus et assis depuis environ cinq minutes. Après avoir rassemblé les données des ECG, les chercheurs ont traqué des schémas spécifiques d’activité neuronale qui ont été décrits comme les blocs de construction de la cognition et de l’émotion. Appelés « micro-états ECG », ces schémas durent entre 60 et 120 millisecondes et se manifestent quand des zones spécifiques du cerveau s’activent simultanément. Des travaux antérieurs ont révélé que les personnes souffrant de schizophrénie présentent des micro-états ECG anormaux, mais cette nouvelle étude est la première à montrer que les frères et sœurs non touchés partagent les mêmes anomalies dans ces schémas cérébraux. Les chercheurs ont découvert qu’un type spécifique de micro-état appelé classe C apparaît plus fréquemment et plus longuement chez les personnes atteintes de schizophrénie et leurs frères et sœurs que chez les personnes saines. D’autres schémas d’activité cérébrale appelés micro-états de classe D ont été relevés moins fréquemment et plus brièvement chez les personnes atteintes de schizophrénie et leurs frères et sœurs que chez des personnes saines. De plus, les personnes qui venaient de vivre leur première expérience de psychose présentaient les mêmes schémas anormaux d’activité cérébrale que les personnes souffrant de schizophrénie depuis de longues années. « Cela donne à penser que ces anomalies dans les micro-états surviennent au début de la maladie », précise Janir Ramos da Cruz. L’équipe a également découvert qu’un troisième type de micro-état, dit de classe B, était présent plus fréquemment et sur de plus longues périodes chez les frères et sœurs que chez les personnes atteintes de schizophrénie. Cela pourrait expliquer pourquoi des frères et sœurs en bonne santé ne présentent aucun comportement à caractère schizophrénique, alors qu’ils partagent la même « signature » cérébrale que les personnes atteintes de la maladie. « Il pourrait s’agir d’un mécanisme de protection qui empêche le déséquilibre dans les micro-états de classe C et D de générer des problèmes fonctionnels », ajoute Janir Ramos da Cruz. Prudent, Michael Herzog précise que l’on ne sait pas encore précisément de quelle façon les altérations dans les micro-états ECG affectent les fonctions cérébrales, avant d’ajouter : « Mais vous n’avez pas besoin de le savoir pour les besoins d’un diagnostic ». Michael Herzog pense que l’analyse des schémas anormaux dans les ondes cérébrales pourrait faire partie d’une batterie de tests pour le dépistage de la schizophrénie et aider à détecter les personnes susceptibles de développer la maladie avant l’apparition des symptômes cliniques. Dans le futur, les micro-états ECG pourraient même permettre d’élaborer des stratégies de traitement et de prévention pour ce trouble neuropsychiatrique. Une meilleure connaissance de la relation entre les micro-états et la schizophrénie pourrait conduire à des thérapies personnalisées utilisant des techniques qui modulent les schémas d’activité cérébrale, comme l’affirme Michael Herzog, qui précise : « Si nous pouvons améliorer ne serait-ce que les symptômes – même légèrement – cela serait déjà un grand soulagement pour les patients ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des psychologues de l'Université de Californie (États-Unis) ont pour la première fois découvert que c’est dans notre cortex que notre cerveau filtre les stimuli pour faire le tri entre ceux qui sont importants pour nous permettre d’effectuer la tâche à accomplir et ceux qui sont là pour nous distraire. En menant des expériences sur des souris, les chercheurs sont parvenus à localiser l’endroit exact dans le cerveau où les stimuli distrayants sont bloqués. Pour cela, ils ont formé des souris à une tâche de détection sensorielle grâce à des stimuli de cible et de distracteur. Les souris ont appris à répondre à des stimuli rapides et à ignorer des stimuli identiques dans le champ de distraction opposé. L'équipe a utilisé une nouvelle technique d'imagerie, qui permet une résolution spatio-temporelle élevée avec un champ de vision à l'échelle du cortex, pour trouver où les stimuli distracteurs sont bloqués. Les résultats de cette étude ont permis d'identifier le cortex comme étant l’endroit de notre cerveau filtrant les différents stimuli. « Nous avons observé des réponses à des stimuli cibles dans plusieurs régions corticales sensorielles et motrices », note Edward Zagha, qui a dirigé l'étude. « En revanche, les réponses aux stimuli de distraction ont été brusquement supprimées au-delà du cortex sensoriel. (…) Lorsque quelqu'un est hautement distrait, son cortex ne déploie pas suffisamment les signaux intentionnels nécessaires pour empêcher les stimuli du distracteur de se propager dans la mémoire de travail ou de déclencher une réponse comportementale. Ces processus — les ‘portiers’ des signaux sensoriels — permettent de laisser passer uniquement le s signaux qui sont pertinents pour la tâche effectuée. Nous pensons que ce processus est orchestré par le cortex ». La prochaine étape pour les chercheurs consiste à comprendre, dans l’activité neuronale, comment les stimuli distrayants sont bloqués. « La précision spatiale de nos résultats nous donne la certitude que nous savons où chercher dans les futures études pour révéler comment les stimuli de distraction sont bloqués, nous permettant ainsi de rester concentrés sur la tâche à accomplir. Ce défi majeur consiste à enregistrer l'activité neuronale à haute résolution spatio-temporelle chez les animaux pendant qu'ils effectuent des tâches ciblées », précise le chercheur. « Le deuxième défi majeur consiste à utiliser les bonnes méthodes de calcul pour analyser cette activité neuronale ». Article rédigé par Georges Simmonds pour RT Flash The Journal Of Neuroscience | | | |
| Les patients atteints d’un Alzheimer restent longtemps asymptomatiques avant de manifester les premiers signes de la maladie. Mais il est alors trop tard pour que les médicaments potentiellement actifs agissent de manière efficace. Des chercheurs britanniques de l'Université Queen Mary de Londres ont découvert un gène qui peut supprimer naturellement les signes d'Alzheimer dans les cellules du cerveau humain. Cela permet d'imaginer un nouveau système de dépistage rapide des médicaments pour les traitements qui pourraient potentiellement retarder ou prévenir la maladie. Actuellement, la seule manière de tester les traitements préventifs contre la maladie d’Alzheimer consiste à identifier les participants les plus à risque de développer la maladie puis d'étudier si les traitements empêchent effectivement l'apparition de leur maladie. Cela inclut les personnes atteintes du syndrome de Down (DS) qui ont environ 70 % de chances de développer Alzheimer au cours de leur vie. Le chromosome 21 supplémentaire qu'ils portent comprend le gène de la protéine précurseur amyloïde qui provoque le développement précoce de cette maladie en cas de surdosage ou de mutation. Les chercheurs ont collecté des cellules ciliées chez des personnes atteintes du syndrome de Down et les ont reprogrammées pour devenir des cellules souches avant d'être transformées en cellules cérébrales. Dans ces cellules cérébrales, les chercheurs ont observé une pathologie semblable à celle d'Alzheimer qui se développe rapidement. Celle-ci comprend les trois signes classiques de la maladie : des lésions de type plaque amyloïde, une mort neuronale progressive et des accumulations anormales d'une protéine appelée tau à l'intérieur des neurones. « Il s'agit du premier système à base de cellules qui possède le trio complet de pathologies d'Alzheimer, sans surexpression artificielle de gènes », se réjouit le professeur Dean Nizetic, auteur principal de l’étude. « Ce système ouvre la perspective d'un dépistage de nouveaux médicaments visant à retarder, voire prévenir Alzheimer avant le début de la mort neuronale ». Le système peut être utilisé pour dépister précocement les médicaments préventifs. Les chercheurs ont sélectionné deux médicaments différents, connus pour inhiber la production de β-amyloïde, les ont testés sur ces cellules cérébrales et, en six semaines, ont montré qu'ils empêchent l'apparition de la pathologie d'Alzheimer. « Je pense que nous avons maintenant le potentiel pour développer un nouveau modèle humain de la maladie qui serait un grand pas en avant », s’est félicité John Hardy, coauteur de l’étude. Si ces médicaments ne sont pas apparus comme des médicaments appropriés pour traiter cette maladie, les chercheurs sont parvenus à montrer que le système peut être utilisé sur n'importe quel composé médicamenteux et donner une réponse en six semaines sur la nécessité ou non de poursuivre le traitement. L'équipe de chercheurs a également trouvé la preuve de l'existence d'un gène suppresseur d'Alzheimer fonctionnant naturellement, le gène BACE2. Agissant de manière similaire aux gènes suppresseurs de tumeurs dans le cancer, l'activité accrue de ce gène contribue au ralentissement d'Alzheimer dans le tissu cérébral et peut à l'avenir être utilisée comme biomarqueur pour déterminer le risque de développer la maladie. Il pourrait également servir de nouvelle approche thérapeutique en boostant son action. Comme le souligne Dean Nizetic, « L'idée serait de détecter les personnes à plus haut risque de maladie précoce dans un système cellulaire, avant que la maladie se propage dans le cerveau, et de permettre de développer des méthodes de prévention individualisées ». Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L'hypertension artérielle est un véritable fléau médical et social, qui affecte plus d’un milliard de personnes dans le monde et en tue chaque année 9,5 millions, selon l’OMS. En France, cette pathologie silencieuse est la maladie chronique la plus fréquente, puisqu'un adulte sur trois est concerné. Première cause évitable d'AVC, l'hypertension se caractérise par une pression anormalement élevée du sang dans les vaisseaux sanguins et constitue, lorsqu'elle n'est pas contrôlée, « l’une des principales causes de complications cardiovasculaires, cérébrovasculaires ou neurodégénératives (infarctus du myocarde, AVC, maladie d’Alzheimer…) », selon l'Inserm. Parmi les traitements couramment prescrits contre l'hypertension figurent les inhibiteurs de l'ECA (enzyme de conversion de l'angiotensine), lesquels dilatent les vaisseaux sanguins et abaissent la pression sanguine. Toutefois, les effets secondaires indésirables sont nombreux (maux de tête, toux sèche, vertiges et étourdissements, somnolence, gonflement du visage, de la bouche ou de la gorge…). Des chercheurs ont donc entrepris de modifier génétiquement du riz, l'un des aliments les plus consommés au monde, afin d'y introduire plusieurs peptides hypertenseurs. Ils ont introduit un gène composé de neuf peptides inhibiteurs de l'ECA et d'un peptide relaxant des vaisseaux sanguins dans des plants de riz. En testant leur innovation sur des rats hypertendus durant 5 semaines, les chercheurs se sont rendu compte que ce riz génétiquement modifié entraînait une réduction significative de l'hypertension, sans occasionner d'effets secondaires indésirables. « Rapporté à un humain de 68 kg, il faudrait manger à peine une demi-cuillère à soupe de ce riz quotidiennement pour prévenir et traiter l'hypertension », écrivent-ils. Bien que spectaculaire, cette découverte nécessite une étude plus approfondie, notamment sur l'organisme humain. L’hypertension est une maladie silencieuse qui touche davantage les personnes d'un âge avancé : moins de 10 % des patients ont 18-34 ans contre plus de 65 % après 65 ans. On estime que la moitié des personnes qui en sont atteintes ne le sauraient pas. Selon l'Inserm, le vieillissement favorise la perte d’élasticité des artères, ce qui constitue « le premier facteur de risque non modifiable. Mais d’autres facteurs de risques sont déterminés par des habitudes ou une hygiène de vie qu’il est possible de modifier : le surpoids, la sédentarité, une consommation élevée de sel, le tabac ou encore l’alcool ». Article rédigé par Georges Simmonds pour RT Flash ACS | | | |
| Aux États-Unis, ce sont plus de 790 000 arthroplasties du genou qui sont pratiquées chaque année. C’est une opération particulièrement invasive consistant à remplacer tout ou partie de l’articulation, dont les effets bénéfiques durent généralement une vingtaine d’années ; après quoi, il est nécessaire de remplacer le dispositif à nouveau. L’hydrogel développé par Ben Wiley et ses collaborateurs, de l’Université Duke, permettrait de s’affranchir de cette opération lourde, en remplaçant uniquement le cartilage usé. L’articulation du genou relie trois os – le fémur, le tibia et la patella (ou rotule) – par le biais de trois articulations, l’articulation fémoro-patellaire et la double articulation fémoro-tibiale. Le cartilage qui entoure l’articulation joue ici un rôle essentiel : il agit comme un film protecteur, chargé d’assurer la fluidité des mouvements ; il protège les os et fait en sorte que les surfaces glissent facilement les unes contre les autres. Il se compose majoritairement d’eau (75 %), puis de fibres de collagène et de cellules appelées chondrocytes. Le genou fait partie des « articulations portantes », il est très sollicité et de ce fait, il est sujet à bon nombre de pathologies, notamment lorsque l’on prend de l’âge, mais aussi lorsque l’on présente un surpoids ou que l’on pratique une activité physique source de chocs répétés. L’arthrose, provoquée par l’usure du cartilage, est la maladie articulaire la plus fréquente et c’est la cause principale pouvant conduire à la pose d’une prothèse de genou selon la Haute autorité de santé. Plus de 80 000 genoux artificiels sont implantés chaque année en France. Le chimiste Ben Wiley s’est donc intéressé à la question pour trouver le moyen d’éviter à des dizaines de milliers de personnes de subir des opérations lourdes, au résultat non pérenne : « Nous avons décidé de fabriquer le premier hydrogel possédant les propriétés mécaniques du cartilage ». À l’instar des autres hydrogels, les principaux ingrédients de ce nouveau matériau sont des polymères absorbant l’eau. Il en contient trois exactement : un premier polymère composé de fils de type « spaghetti », entrelacés avec un autre polymère moins flexible (un double réseau noté PAMPS, pour poly(vinyl alcohol) (PVA)–poly(2‐acrylamido‐2‐methyl‐1‐propanesulfonic acid sodium salt)) ; enfin, un troisième polymère, constitué d’un réseau de nanofibres de cellulose bactérienne, agit comme un maillage qui maintient le tout ensemble. Comment fonctionne ce gel exactement ? Il contient 60 % d’eau et, lorsqu’il est étiré, ce sont les fibres de cellulose qui agissent : elle fournit une résistance à la traction similaire au collagène du cartilage naturel. Lorsqu’il est compressé, ce sont les polymères composant le PAMPS qui entrent en jeu : les charges négatives des chaînes polymères se repoussent et adhèrent à l’eau, de sorte que la forme d’origine puisse être restaurée. Sur ces deux fonctions majeures que sont l’étirement et l’écrasement, l’hydrogel a affiché des performances supérieures aux matériaux artificiels existants : il a parfaitement résisté à 100.000 tractions répétées, aussi bien que les dispositifs en titane utilisés pour les implants osseux. Lors de tests où l’hydrogel a été frotté contre du cartilage naturel – près d’un million de fois – il s’est avéré plus résistant que ce dernier (avec un coefficient de friction 45 % inférieur à celui du cartilage), et bien plus durable que les implants de cartilage artificiel approuvés par la FDA utilisés aujourd’hui dans les opérations du gros orteil (4,4 fois plus résistant à l’usure, selon les chercheurs). Article rédigé par Georges Simmonds pour RT Flash Trust My Science | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|