| | | | | | | Edition du 12 Novembre 2021 |
| |
|
| Edito Un paysage aéronautique en pleine mutation face au changement climatique
APPEL aux DONS pour PERMETTRE à RT FLASH de CONTINUER à ÊTRE PUBLIÉ SANS PUBLICITÉ et GRATUITEMENT CHAQUE SEMAINE: Somme collectée au 10 Novembre 2021 : 5.338 euros Nombre de donateurs : 73 Avec cette somme, jusqu'à quelle date en 2022 pourra paraître gratuitement RT Flash chaque semaine, sans publicité : 26 Avril 2022 L'ADIST a été qualifiée d'Association d'Intérêt Général. Les dons qui sont faits à notre association ouvrent droit à une réduction fiscale de 66 % en respect des articles 200 et 238 du Code Général des Impôts. Ainsi, si vous nous faites le plaisir de faire un don de 30 euros, vous bénéficierez d'une réduction de 20 € sur vos impôts et si votre bonté allait jusqu'à 300 euros de don pour permettre à RT Flash de survivre, ce serait une réduction de 200 euros que vous constateriez sur le montant des impôts qu'il vous faudrait régler. Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito dont les rédacteurs et moi-même sommes totalement bénévoles nous apporte beaucoup de joie et de bonheur. René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Si vous voulez aider RT Flash, lettre d'informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant : Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %. EDITORIAL : Les émissions mondiales de CO2 liées à l’aviation commerciale atteignent à présent près d’un milliard de tonnes par an, soit 2,7 % du total des émissions humaines de CO2 en 2019, selon le Carbon Global Project (36,8 milliards de tonnes liées à l’ensemble des consommations d’énergies fossiles et hors usages agricoles et forestiers-voir Global Carbon). Mais des recherches récentes ont montré que, si l’on intégrait l’effet néfaste sur les nuages et le climat des trainées persistantes de condensation (encore appelées trainées blanches), laissées par les avions en haute altitude, il faudrait doubler ce poids de l’aviation, qui pèserait alors pour plus de 5 % dans le réchauffement climatique global. Une étude allemande, réalisée par l’Institut de physique de l’atmosphère d’Oberpfaffenhofen, a par ailleurs récemment montré que, compte tenu des prévisions d’augmentation du trafic aérien, qui tablait, avant la pandémie de Covid 19, sur un quasi doublement du trafic aérien d’ici 2040 (le nombre d’appareils passerait de 26 000 à 48 000 et le nombre de passagers transportés passerait de 4,3 milliards en 2018 à 10 milliards en 2040), cet impact délétère des traînées de givre de l’aviation sur le climat risquait de tripler d’ici 2030, et pourrait peser, à l’horizon 2050, 15 % du forçage radiatif total qui provoque le réchauffement mondial des températures (Voir European Geosciences Union). Un tel scenario perspective est évidemment totalement incompatible avec les derniers objectifs prévus par la COP26, qui rappelle que, pour limiter simplement le réchauffement climatique sous la barre des deux degrés, il faut impérativement réduire nos émissions mondiales de CO2 de 30 % d’ici 2030, ce qui revient à multiplier par quatre le rythme de réduction de nos émissions au cours de la prochaine décennie (Voir ONU). En février dernier, l’'association du transport aérien international (IATA), qui s'était déjà engagée à réduire de moitié ses émissions de CO2 d'ici à 2050 comparé à 2005, a annoncé qu’elle visait désormais la neutralité carbone en 2050, ce qui suppose non seulement une réduction de 4 % par an du trafic aérien global dès 2024, et non pas une augmentation annuelle de 4 %, comme cela était prévu jusqu’à présent, mais également, selon Willie Walsh, le directeur général de l'IATA, le recours massif aux carburants verts, la réduction drastique de la consommation des appareils et des concepts d'avions propres radicalement nouveaux, comme l’avion à hydrogène qu’Airbus espère mettre au point d’ici 2035. Mais en attendant que ces avions du futur voient le jour, la transition vers des carburants verts est déjà bien entamée. Grâce à la technologie combinée de l’entreprise française Global Bioenergies, et de l’allemande Swift Fuel, un avion de tourisme a volé en juin dernier avec une essence à 97 % d’origine végétale, mise au point par Swift Fuel et fabriquée à partir de betteraves. Notons également qu’il y a quelques semaines, l’Allemagne a inauguré sa première usine de kérosène neutre en carbone, près de la ville de Werlte. Ce kérosène propre est issu du procédé « Power-to-Liquid : concrètement, il s'agit d'utiliser de l'hydrogène, produit par électrolyse, et de capter du CO2 dans l'atmosphère. En recombinant les deux, on obtient un carburant de s ynthèse imitant le kérosène d'aviation. L'usine allemande utilise du CO2 capté dans l'air et provenant d'une usine de biogaz de la région qui utilise des déchets alimentaires, tandis que l'électricité, pour produire l'hydrogène, provient d'installations éoliennes et solaires. En septembre dernier, les groupes français TotalEnergies et Safran ont pour leur part annoncé un partenariat stratégique afin de développer le recours aux carburants d’aviation durables (SAF) et ainsi réduire l’empreinte carbone du transport aérien. Au niveau européen, le projet Take-off, qui a démarré en janvier 2021, vise à produire du carburant synthétique renouvelable pour l’aviation à partir de CO2 et d’hydrogène (H2). Ce projet réunit onze partenaires scientifiques et industriels (dont le CNRS) qui travaillent sur le développement de nouveaux catalyseurs et procédés pour la synthèse sélective d’oléfines légères (éthylène et propylène) à partir de CO2 et d’hydrogène. Il y a quelques semaines, l’US Air Force, en collaboration avec l’entreprise Twelve, a annoncé qu’elle avait réussi à produire du carburéacteur à partir de CO2. Baptisé E-Jet, ce carburant neutre en carbone est fabriqué grâce à un nouveau réacteur électrochimique (électrolyseur) et un catalyseur qui électrifie le CO2 et l’eau, ce qui crée un gaz de synthèse CO + H2, qui est ensuite raffiné en carburéacteur neutre en carbone (Voir Air Force). S’agissant de la nécessaire transition vers de nouveaux modes de propulsion, sinon totalement propres, du moins beaucoup moins polluants, industriels et constructeurs font assaut d’ingéniosité et d’initiatives pour concevoir des appareils plus légers, moins bruyants et surtout beaucoup plus économes en énergie et fonctionnant, pour les courts et moyens courriers, sur le mode hybride, ou tout électrique. La société américaine Amedeo vient de passer une précommande de 200 avions électriques conçus par Aura Aero. Baptisé ERA, pour Electrical Regional Aircraft, cet appareil devrait effectuer son premier vol en 2024. Conçu par l'entreprise toulousaine Aura Aero, cet avion hybride de 19 places pourra couvrir près de 400 km uniquement grâce à l'énergie électrique (et 1800 km en version hybride). Cet appareil hybride à propulsion électrique sera équipé d’un turbo générateur pouvant fonctionner avec des carburants durables. « Notre volonté est de développer l’avion qui correspond au plus gros marché possible. Il vaut mieux réduire de 80 % les émissions d’une part importante des vols que 100 % d’une part négligeable du marché », estime Jér&e acute;my Caussade, le patron d’Aura Aero. « Le premier vol d’Integral E, la version électrique du biplace, devrait intervenir en 2022. » Sur ce marché en pleine effervescence, il faudra aussi compter sur la jeune société Voltaero, fondée par des anciens ingénieurs d'Airbus. Soutenu par l’UE, Voltaero a récemment présenté son prototype Cassio 1, basé sur un Cessna 337 mais doté d’une technologie numérique et électronique dernier cri, et équipé d'un mode de propulsion associant un moteur thermique et cinq moteurs électriques totalisant 600 kilowatts (plus de 800 chevaux), ce qui lui permet d’embarquer 10 passagers. « La fonction principale du moteur thermique est de recharger les batteries, afin que l’appareil soit toujours à son mode optimal de consommation. En revanche, tous les atterrissages et décollages sont faits en électrique », précise M. Botti, PDG et directeur technologique de Voltaero Pour faire le plein d’énergie, il suffira de brancher l'appareil sur secteur entre deux utilisations, exactement comme pour une voiture hybride rechargeable. L’engin pourra alors parcourir jusqu'à 200 km sur ses seules batteries (pour un rayon d'action maximum de 1.200 km), sans consommer une goutte de carburant. Au-delà, le moteur thermique se mettra en marche, mais avec une consommation de carburant réduite en moyenne d’un tiers sur l'ensemble des trajets. Voltaero prévoit des livraisons d'une version quatre places en 2023, puis d’un dix-places à l'horizon 2026. Cette entreprise, qui espère produire 300 appareils par an, veut également donner un nouveau souffle aux aérodromes aujourd'hui sous-utilisés, et participer au désenclavement des territoires, sans nuire à l'environnement. Les principaux acteurs du secteur aéronautique, General Electric, Rolls-Royce, ou encore la Nasa, ont bien compris l’intérêt économique et environnemental de la technologie hybride pour les avions destinés aux liaisons régionales, mais soulignent qu’il ne faut pas attendre un gros porteur hybride, ou utilisant l’hydrogène, avant au moins deux décennies, tant les défis techniques à surmonter sont importants, à commencer par la réduction du volume des batteries, la multiplication par quatre de leur densité énergétique, ou le stockage sécure d’une quantité suffisante d’hydrogène pour effectuer de longs vols. Mais dans le secteur de l’aviation légère, à court et moyen rayon d’action, l’avenir ne sera pas seulement électrique, il sera aussi… vertical. L’autre révolution technologique, déjà en cours, est en effet celle des avions à décollage et atterrissage verticaux, qu’ils soient à propulsion électrique ou hybride. La société américaine Bell Textron a récemment présenté de nouveaux modèles d’avions à grande vitesse capables de décoller et d’atterrir verticalement avec des hélices. Ces engins sont basés sur le concept HSVTOL, une technologie qui permet des décollages et des atterrissages verticaux à grande vitesse et combine les capacités de vol stationnaire d’un hélicoptère avec les performances de vitesse et de portée d’un avion de combat. Bell Trexton souligne qu’il ne s’agit pas de proposer des « avions au rabais », mais des appareils ayant des vitesses de croisière supérieures à 400 nœuds (740 km/h), une indépendance totale vis-à-vis des pistes de décollage, une aptitude au vol stationnaire, et une grande polyvalence pour différents types de missions. Bien que Bell Textron reste très discret sur ses solutions techniques, elle précise que ses différents prototypes ont tous en commun un fuselage central équipé d’ailes aux extrémités desquelles se trouvent des moteurs basculants avec des rotors repliables. Ces appareils utilisent ces moteurs en position verticale pour décoller et atterrir, et ces moteurs vont ensuite se positionner horizontalement avec les rotors repliés, de manière à améliorer l’aérodynamisme en vitesse de croisière. Des réacteurs distincts, intégrés dans le fuselage, assurent quant à eux la propulsion de l’engin. Signe des temps, ces prototypes d’avions électriques à décollage et atterrissage verticaux (Adav), sont de plus en plus nombreux. La société israélienne Air propose pour sa part un Adav électrique de deux places, destiné aux particuliers. L’appareil sera capable d’effectuer 180 kilomètres ou de voler pendant une heure à une vitesse maximale de 250 km/heure. Il pourra recharger ses batteries en seulement une heure. L'appareil est équipé de huit rotors électriques verticaux, montés par paires sur quatre bras. Ses ailes peuvent être repliées afin de pouvoir le ranger dans un garage. Le constructeur a également développé son propre logiciel de navigation « fly by intent » qui gère toutes les fonctions complexes pour que l'appareil puisse être utilisé sans avoir besoin d'ê tre piloté. Un système de surveillance avec intelligence artificielle inspecte régulièrement toutes les fonctions de l'Air One. Air met en avant le gain de temps pour les trajets personnels, en prenant l’exemple d’un voyage de Westport à New York, qui ne prendra plus que 25 minutes avec l’Air One, au lieu de deux bonnes heures par la route. . Dans ce foisonnement technologique, évoquons également l’appareil eVTOL, un avion électrique à décollage et atterrissage verticaux, dont la commercialisation est prévue pour 2026 et qui est développé par Jaunt Air Mobility, entreprise américaine venue s’installer au Québec récemment. « Il décolle comme un hélicoptère, mais vole en translation, comme un avion, ce qui lui permet d’atterrir n’importe où, mais la grande différence avec un hélicoptère, c’est que ça ne fait pas de bruit. » précise Éric Côté, président de Jaunt Air Mobility Canada. Dans un monde où les mégapoles sont six fois plus nombreuses qu’en 1970 et de plus en plus peuplées et étendues, et où il devient de plus en plus difficile, pour des raisons à la fois économiques et environnementales, de construire de nouvelles infrastructures routières, ces nouveaux acteurs, comme les géants du secteur, ont bien compris qu’il y avait là un gigantesque marché à prendre, au cours des 20 ans à venir. Quant au prix de la prestation pour le client, Eric Côté pense qu’il doit se rapprocher de celui d’une course en taxi, sur un trajet équivalent : « Notre ambition, c’est de pouvoir proposer le trajet aérien qui va du centre-ville de New York à l’aéroport JFK à 48 $ », précise-t-il. La compagnie américaine Joby Aviation espère pour sa part le lancement commercial de ses eVTOL (pour “avions électriques à décollage et atterrissage vertical”) d’ici à trois ans, et comptabilise déjà plus de 1000 vols d’essai à l’heure actuelle. Cette société développe un appareil pouvant accueillir 4 passagers et voler jusqu’à 322 km/h pour une autonomie de 241 km. En juillet dernier, cette compagnie a annoncé avoir réalisé un vol de plus de 240 kilomètres avec son aéronef électrique à décollage et atterrissage verticaux (eVTOL). Le vol a été réalisé dans le courant du mois de juillet sur la base de Joby, en Californie. L'eVTOL, piloté depuis le sol, a décollé verticalement avant de passer au vol et de réaliser 11 tours d'un circuit pr&eacu te;défini en 1h17 puis d'atterrir verticalement. Airbus, par le biais de sa filiale, Airbus Helicopters, développe également son taxi volant, dont l’homologation est prévue pour 2025. Baptisé CityAirbus de nouvelle génération (NextGen), l'engin est également un E-VTOL, un appareil 100 % électrique à décollage vertical, doté d'ailes fixes, d'une queue en V et d'un système innovant de propulsion distribué, comportant huit hélices électriques. City Airbus peut transporter jusqu'à quatre passagers, sans aucune émission polluante. L'appareil disposera d'une autonomie de 80 km en volant à une vitesse de 120 km/heure, et son niveau sonore sera remarquablement bas : moins de 65 décibels (dB) pendant les survols et inférieurs à 70 dB lors des atterrissages, précise Airbus Helicopters. Reste que l’autorisation de mise sur le marché de ce type d’appareil sera un véritable marathon réglementaire car ces engins qui, par définition, survoleront les villes, devront satisfaire à des normes de sécurité draconiennes, tant sur le plan de la motorisation redondante qu’en matière de systèmes anti-collision et d’autonomie informatique de navigation, y compris face à des circonstances imprévues. Il faut notamment savoir que le contrôle radar, tel qu’il existe actuellement, ne permet pas de gérer en toute sécurité la navigation aérienne de cette catégorie d’engins et il faudra attendre l’arrivée de la 5G pour gérer les communications à basse altitude. Le succès de ces taxis et bus volants implique également la construction de nombreux mini aéroports, appelés sk yports, qui seront installés au sol ou sur les toits de certains immeubles, mais devront répondre, eux aussi, à des normes strictes de sécurité, et posent des problèmes d’intégration urbaine et environnementale qu’il faudra surmonter. Il y a quelques jours, la société australienne AMSL Aero a fait sensation en présentant une nouvelle version de son VTOL baptisé Vertiia. Contrairement aux VTOL conçus pour un usage urbain cet appareil peut parcourir les longues distances qui caractérisent l’immense continent australien. Grâce à sa pile à combustible, il peut désormais atteindre une autonomie remarquable de 1.000 kilomètres et transporter le pilote et quatre passagers avec une charge totale de 500 kg. L'appareil est doté de huit rotors, en deux rangées de quatre, capables de pivoter pour une poussée verticale pour le décollage, ou horizontale pour le vol. Il peut atteindre une vitesse de croisière de 300 km/h (Voir New Atlas). Il était impossible de terminer ce rapide tour d’horizon du paysage aéronautique en pleine mutation, sans évoquer l’éventuel retour, près de 20 ans après le dernier vol du Concorde, d’un avion civil supersonique dans les airs. Hermeus, une start-up américaine fondée par d’anciens ingénieurs de SpaceX et basée à Atlanta, travaille sur un projet d’avion hypersonique qui permettrait de relier Londres à New York en seulement 90 minutes, à une vitesse de croisière de 4 800 km/heure. Le moteur de cet appareil hypersonique combinera deux technologies, un turboréacteur, semblable à celui qu’utilisent les avions de ligne, et un statoréacteur, qui ne fonctionne qu’aux vitesses supersoniques. Hermeus précise que son engin ne pourra accueillir qu’une vingtaine de passagers et pourra seulement emprunter les voies aériennes transatlantiques telle que Londres-New York mais pas les transpacifiques, comme Los-Angeles-Tokyo, et ce pour des raisons de rayon d'action. Reste que cet appareil, s’il voit le jour, ne pourra pas emprunter les voies aériennes terrestres, compte tenu des nouvelles réglementations bien plus sévères sur le bruit. Une autre entreprise américaine, Aerion, travaille également sur un projet d’avion supersonique pouvant rejoindre New York à Londres en une heure. Il mettrait dix minutes de plus que l’avion d’Hermeus à relier Londres à New York mais il pourrait accueillir 50 passagers, et non 20. L’Agence spatiale britannique n’est pas en reste et prévoit de relier Londres à Sydney en quatre heures d’ici 2030, grâce un avion-fusée équipé d’un moteur hybride révolutionnaire, plus économe et plus propre. Cet engin décollerait à l’horizontale, comme un avion, puis pourrait ensuite emprunter les routes spatiales et atteindre plus de 30 000 km/h, 25 fois la vitesse du son. La plupart des spécialistes doutent cependant qu’un tel avion puisse effectuer son premier vol commercial en 2030, comme le prévoit l’agence britannique, tant les défis technologiques qui restent à surmonter sont nombreux… Beaucoup plus réaliste, le futur avion supersonique de la Nasa baptisé Low-Boom Flight Demonstrator (LBFD) pourrait permettre, quant à lui, de réduire de moitié les vols long-courriers selon le gouvernement américain. À une vitesse de 1 728 km/h et à une altitude de 16 000 mètres, il pourrait donc rallier Paris à New York en un peu plus de 3 heures 20, une durée qui ne sera pas inférieure à celle du Concorde, il y a 50 ans, mais avec un niveau sonore bien moins élevé et une consommation d’énergie bien plus faible, grâce aux avancées en matière de matériaux et de motorisation et à l’intégration des outils numériques. Mais, disons le franchement, alors que les nouvelles priorités économiques et politiques sont à présent soumises aux impératifs de lutte contre le changement climatique, dont nous percevons de plus en plus les effets concrets et dévastateurs, il est peu probable que l’on puisse revoir à nouveau avant longtemps dans nos cieux des avions civils supersoniques car, les lois de la physique n’étant pas négociables, de tels appareils, quels que soient les progrès techniques qui interviendront, devront consommer beaucoup d’énergie pour aller très vite. En outre, leur impact climatique réel sur l’atmosphère et la stratosphère reste mal connu et pourrait être important. Peut-être faudra-t-il attendre une rupture technologique majeure, et la mise au point de modes de propulsion radicalement nouveaux, comme le moteur électromagnétique ou io nique, pour que des avions super et hypersoniques puissent relier les continents. En attendant ce jour lointain, nous allons assister dans les années qui viennent à l’accélération de cette grande mutation du transport aérien, qui sera marquée par une décarbonation croissante de l’aviation, mais aussi par l’apparition et la coexistence d’un grand nombre de nouveaux types d’engins aériens (et je n’ai pas évoqué l’immense panoplie des drones, appelés à jouer un rôle économique de plus en plus grand), caractérisés par leur polyvalence, leur modularité, leur sobriété, leur autonomie de pilotage et leur haut niveau de sécurité. A nous de faire en sorte que ce foisonnement extraordinaire de nouvelles solutions de déplacement et de transport aérien, tant pour les hommes que pour les marchandises, puisse bénéficier au plus grand nombre, être socialemen t accepté et bien sûr, rester supportable sur le plan environnemental… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Alors même que les ordinateurs classiques contiennent un processeur et des mémoires, la communauté scientifique imaginait jusqu’à présent l’ordinateur quantique sous la forme d’un processeur dépourvu de mémoire et contenant des bits quantiques (qubits) situés sur un même plan. Ce processeur effectue des opérations sur les qubits et corrige les erreurs inévitables générées par la fragilité intrinsèque de leur état. Des chercheurs de l’Institut de Physique Théorique (IPhT), situé sur le CEA-Paris-Saclay, se sont demandé ce qu’apporterait une nouvelle architecture associant un processeur quantique à une mémoire quantique. Pour l’évaluer, ils ont choisi l’algorithme de Shor, qui, s’il était mis en œuvre par un ordinateur quantique, rendrait vulnérables les systèmes de cryptage courants des ordinateurs classiques tels que le chiffrement RSA très utilisé dans le commerce électronique. Google, en particulier, a estimé qu’un processeur de 20 millions de bits quantiques résoudrait en quelques heures ce problème insoluble avec un ordinateur classique. Les physiciens de l’IPhT ont démontré qu’avec l’association processeur-mémoire, ce problème ne requiert plus que 200 000 bits quantiques. En ajoutant des procédures de correction d’erreurs optimisées, le nombre de qubits diminue encore pour atteindre 13 000, soit un gain de trois ordres de grandeur. La démonstration qu’un tel gain est possible constitue une étape importante, car elle fait tomber une barrière : avec les techniques actuelles, la réalisation de 20 millions de qubits nécessiterait un ordinateur quantique de grand volume et une ingénierie associée particulièrement complexe, pour refroidir ce volume à basse température. La durée de calcul, en revanche, s’allonge de quelques heures à quelques mois mais la durée de vie des données confidentielles susceptibles d’être divulguées est encore plus longue. La contrepartie de la réduction de la taille du processeur est en effet une diminution du parallélisme des opérations, qui doivent ainsi être effectuées davantage les unes à la suite des autres. La puissance du calcul quantique reposant sur la superposition d’états quantiques n’est, quant à elle, aucunement affectée. Cette nouvelle configuration requiert également une mémoire très fidèle puisque les états quantiques des qubits sont transférés de la mémoire au processeur puis du processeur à la mémoire, à chaque fois qu’ils sont requis pour effectuer une opération. « L’idée de ce travail m’est venue à la suite d’échanges avec Patrice Bertet, chercheur au CEA-Iramis », explique Nicolas Sangouard, co-auteur de l’étude. « Son équipe sait comment extraire l’état d’un qubit supraconducteur sous forme d’un photon microonde et le conserver intact dans une mémoire pendant près de 100 ms. Il faudrait ensuite réussir à procéder à l’opération inverse de manière à transférer les états quantiques sur les qubits d’un processeur et montrer qu’il est possible de manipuler cette information à l’aide d'un grand nombre d’opérations logiques en réalisant un aller-retour mémoire-processeur entre chaque opération ». Ce travail théorique, qui a déjà suscité l’intérêt des acteurs du monde quantique, est une nouvelle motivation pour poursuivre les travaux de recherche menés au CEA-Iramis sur les mémoires quantiques au temps de vie plus long et de meilleure qualité. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Des chercheurs du laboratoire CNRS Ondes et Matière d’Aquitaine travaillent sur une nouvelle approche vers l'ordinateur quantique, le qubit nanomécanique, qui présente l'avantage d'être plus résistant à la décohérence que les machines existantes. L'approche se base sur les oscillations d'un nanotube de carbone – que l’on peut se représenter comme un élastique de quelques microns de longueur – pour représenter un état quantique : 0, 1, ou une superposition cohérente de deux états. Il servirait ainsi d’unité de base d’un calculateur quantique capable d’effectuer des calculs, comme le sont les transistors dans un ordinateur conventionnel. « Les oscillateurs mécaniques peuvent avoir des temps de vie très longs », souligne Fabio Pistolesi, directeur de recherche au laboratoire CNRS Ondes et Matière d’Aquitaine (LOMA) qui dirige ces recherches. « Si vous poussez une balançoire, elle va faire quelques dizaines d’oscillations. Un système nanomécanique bien isolé en fera plusieurs millions », ajoute-t-il. Grâce à cette propriété physique remarquable, un système, à condition qu'il soit bien isolé, ne perd pas son énergie, et conserve très longtemps son état. Dans ce contexte, il devient alors possible d’utiliser l’amplitude des oscillations pour stocker de l’information quantique. Mais encore faut-il parvenir à mesurer cette amplitude, ce qui n'est possible qu'en mesurant la fréquence de l'oscillateur. Le problème, c'est que la périodicité des oscillations ne dépend pas de leur amplitude, car elles sont harmoniques. Comme la fréquence ne change pas, il est très difficile de détecter l’amplitude ou de manipuler l'état de l'oscillateur. Pour relever ce défi, les chercheurs ont eu l'idée d'introduire un point quantique dans le système ; celui-ci va piéger un électron sur le nanotube, ce qui va permettre de produire la non-linéarité recherchée. Ce remarquable dispositif permet aux chercheurs de détecter l’état d’amplitude du qubit à travers sa fréquence. « L’état d’amplitude minimal de l’oscillateur correspond au zéro. Le premier état excité, d’une énergie très légèrement supérieure, correspond au un », explique Fabio Pistolesi. « Nous pouvons aussi générer un état de superposition de ces deux états, qui correspond à d’autres états d’oscillation », précise-t-il. Au-delà du fonctionnement basique de ce qubit, les chercheurs ont défini comment modifier et lire l’information qu’il stocke, mais aussi montré qu’un couplage était possible entre plusieurs d’entre eux. Reste que la fabrication d’un tel dispositif est complexe et l'équipe de Fabio Pistolesi fait pousser les nanotubes de carbone directement sur le dispositif électronique permettant de les contrôler. Maîtriser cette technique constitue un nouveau défi que ces chercheurs vont devoir relever, avant d'envisager la réalisation d'un prototype de machine quantique utilisant les qubits nanomécaniques… Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Des scientifiques de l’Université de Northwestern dans l’Illinois aux États-Unis ont mis au point les plus petits objets volants jamais fabriqués par l’être humain. À terme, ils pourraient nous permettre de suivre les populations, d’analyser la pollution atmosphérique ou d’identifier la présence de maladies transmises par l'air. Ces chercheurs se sont en effet inspirés de la manière dont les graines, à l’instar de celles d’érable, voyagent grâce au vent pour se déplacer et peupler de nouveaux territoires. Ces organismes disposent d’un design particulier leur permettant de tomber très doucement, tout en avançant le plus loin possible, et non pas de voler à proprement parler. C’est justement cette dynamique que les scientifiques ont voulu exploiter pour leur dispositif, en se basant notamment sur les graines d’une plante baptisée tristellateia. « Notre objectif était d'ajouter le vol ailé à des systèmes électroniques à petite échelle, dans l'idée que ces capacités nous permettraient de distribuer des dispositifs électroniques miniaturisés hautement fonctionnels pour détecter l'environnement à des fins de contrôle de la contamination, de surveillance des populations ou de suivi des maladies », explique John A. Rogers, ingénieur en chef du projet. Ils ont baptisé l’appareil qu’ils ont mis au point un « micro-volant électronique ». Il est ainsi composé de plusieurs composants électroniques, ceux-ci comprenant une source d'énergie capable de récolter l'énergie ambiante, une mémoire pour le stockage et une antenne pour transférer les données vers un smartphone, une tablette ou un ordinateur. L’appareil est en outre doté de capteurs ainsi que d’ailes pour contrôler sa descente. Là où les scientifiques ont réellement marqué le coup, c’est sur la taille de leur engin qui ne dépasse pas celle d’un grain de sable. Ils sont ainsi parvenus à recréer les structures d’une manière bien plus petite que ce que l’on trouve dans la nature. Construits avec un matériau qui se dissout dans l’eau pour éviter la pollution, ces appareils pourraient avoir de nombreux usages. En effet, les chercheurs imaginent de vastes essaims de leurs mini-drones lâchés en pleine nature pour contrôler l'impact environnemental des déversements de produits chimiques ou pour suivre les niveaux de pollution de l'air à différentes altitudes. La confection de ces mini appareils est une nouvelle preuve du potentiel du biomimétisme. Dans le secteur de la robotique, les ingénieurs s’inspirent souvent de la nature pour mettre au point leurs machines, à l’image de robots insectes ou encore de robots aquatiques inspirés des calamars. La nature est en effet le meilleur des architectes, puisqu’elle a su forger des êtres vivants parfaitement adaptés à leur environnement à travers des millions d’années d’évolution. En combinant les avancées technologiques à l’ingéniosité de la nature, les chercheurs sont désormais capables de créer des robots aux multiples usages et, surtout, capables de se déplacer et d’interagir de manière adaptée. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Ils sont aujourd'hui 200 à parcourir les rues de la ville et de la cité voisine de Northampton, livrant les courses ou les repas. Ils seront bientôt 500, colonisant cinq nouvelles municipalités, notamment dans la région de Cambridge et le nord de l'Angleterre. Avec la pandémie, les robots ont été très sollicités et se sont rendus indispensables : « Tout le monde avait besoin de livraisons sans contact », résume Andrew Curtis, chef des opérations au Royaume-Uni de Starship Technologies, qui construit et exploite les automates. L'entreprise, qui a multiplié par quatre ses livraisons, effectue aujourd'hui 1.000 courses par jour dans le pays et "la demande ne s'est pas relâchée" avec la fin des restrictions, se félicite M. Curtis. L'entreprise vient de conclure un nouvel accord avec la chaîne coopérative de supermarchés Co-op, l'un de ses partenaires historiques, pour mettre à disposition 300 nouveaux robots d'ici la fin de l'année et multiplier par trois les livraisons. Devant l'une des boutiques de l'enseigne à Milton Keynes, la toute première à avoir été desservie en 2018, une dizaine de robots patiente. Leur antenne, flanquée d'un petit drapeau orange, pour la visibilité, leur donne un faux air d'auto-tamponneuses. Un employé sort de la boutique et dépose dans le capot de l'un d'eux la toute dernière commande : un petit sac contenant des framboises et du yaourt, et un bouquet de fleurs. Son couvercle verrouillé, le droïde s'élance immédiatement sur le trottoir. Il bifurque et s'avance pour traverser la route, avant de reculer vivement pour laisser passer une automobile. Bardé de caméras et capteurs, le robot est autonome à 99 %, selon son fabriquant, une entreprise créée en 2014 par deux fondateurs de Skype et basée à la fois en Estonie et aux États-Unis. Si l'automate bloque face à une situation inconnue, un opérateur peut en prendre le contrôle à distance. Une fois lancé, le robot se repère sans mal dans le dédale de chemins piétons qui serpentent entre les maisons de briques rouges et frôle, quand la voie est libre, les 6 km/h. Il livre ses clients en moins d'une heure. Pour Co-op, l'enjeu est aussi environnemental : il s'agit de "réduire les émissions de carbone sur les derniers kilomètres de livraison", en évitant que "les clients ne conduisent pour aller dans un magasin, ou ne soient livrés par un véhicule à essence", explique l'enseigne dans un communiqué. L'automate reste la propriété de Starship et les commandes se font via l'application développée par la société, qui gère un millier de robots, principalement au Royaume-Uni et aux États-Unis mais aussi en Estonie, Allemagne et Danemark. Starship n'est pas seule dans la course aux robots de livraison. Aux États-Unis par exemple, où elle est surtout implantée sur les campus universitaires, elle joue des coudes avec des start-up et des géants de la logistique, comme Amazon et FedEx, qui expérimentent des robots de livraison dans des zones délimitées. Article rédigé par Georges Simmonds pour RT Flash CVN | | ^ Haut | |
|
| | | Comment parvenir à produire de l’hydrogène vert sans électrolyseur ni électricité ? En utilisant une nouvelle technique prometteuse, la « photo-électrolyse de l’eau ». Jusqu'à présent, cette technique se heurtait à l'obstacle de la faible durée de vie des cellules photoélectrochimiques (PEC). Mais des chercheurs japonais ont annoncé une avancée importante dans ce domaine : « Nous confirmons avoir atteint une durabilité de 100 jours, ce qui est l’une des plus longues périodes jamais observées expérimentalement pour un système PEC », a affirmé Masashi Kato, professeur en ingénierie électromécanique à l’Université de technologie de Nagoya. « En moyenne, les précédentes générations d e PEC atteignaient une durée de vie d’une semaine à peine », précise le chercheur. La photo-électrolyse de l’eau possède un atout majeur : elle permet de produire de l’hydrogène vert en une seule étape, séparant directement l’hydrogène et l’oxygène présents dans l’eau via l’énergie solaire, sans passer par la production d’électricité. Sa mise en œuvre s’opère par éclairement d’un photo-catalyseur à semi-conducteur immergé dans un électrolyte aqueux ou dans l’eau. Au contraire, les seuls systèmes aujourd’hui capables de massifier la production d’hydrogène bas carbone sont des électrolyseurs couplés à des fermes solaires, des parcs éoliens ou des centrales nucléaires. Pour parvenir à augmenter la durabilité de la cellule photoélectrochimique, Masashi Kato et son équipe ont utilisé deux électrodes, chacune revêtue d’un catalyseur spécifique : l’un avec du dioxyde de titane, l’autre avec du carbure de silicium « cubique », un matériau développé par l’équipe japonaise. « Les deux catalyseurs absorbent différentes parties du spectre lumineux et travaillent de manière complémentaire pour fractionner la molécule d’eau », est-il développé dans le journal anglo-saxon. Le dioxyde de titane absorberait les ultraviolets et serait plutôt à l’origine de la production d’oxygène, tandis que le matériau de carbure de silicium absorberait la lumière visible et serait plus impliqué dans la production de l’hydrogène. Le rendement du système n’atteint toutefois que 0,74 %, alors que la plupart des photo-électrolyses de l’eau tournent plutôt autour de 1 à 2 %. Pour améliorer ce résultat, Masashi Kato et ses collègues cherchent actuellement à remplacer par un autre catalyseur le dioxyde de titane, en cause, d’après eux, dans le faible rendement du système. Article rédigé par Georges Simmonds pour RT Flash IEEES | | | |
| Des scientifiques suisses développent un plancher en bois qui permettrait de produire de l’énergie, simplement en marchant dessus. Ce dispositif pourrait alimenter plusieurs appareils domestiques en énergie renouvelable, juste avec des pas. Nommé « nanogénérateur triboélectrique », le système utilise l’énergie mécanique fournie par les pas, pour créer de l’électricité. Il est constitué de deux planches de bois modifiées, aux extrémités desquelles sont placées des électrodes. Celles-ci sont mises en contact l’une avec l’autre et échangent des électrons, lorsque le parquet est foulé du pied. Une fois le pied décollé, le contact est rompu et de l’électricité est générée. L’initiative est mise au point par une équipe constituée de chercheurs suisses. Ceux-ci sont issus de l’Institut fédéral de technologie (ETH) de l’Université de Zurich, et du laboratoire fédéral d’essai des matériaux et de recherche (AMPA), à Dübendorf. « L’efficacité énergétique des bâtiments pourrait être fortement améliorée en permettant aux matériaux de construction de convertir directement l’énergie mécanique de leurs occupants en électricité utile », ont déclaré les scientifiques. Article rédigé par Georges Simmonds pour RT Flash European Scientist | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | La start-up marseillaise Volta Medical a développé un système d'apprentissage automatique afin d'aider les médecins à trouver les zones à ablater dans le cœur de patients atteints de fibrillation atriale, le trouble du rythme cardiaque le plus complexe et répandu dans le monde. « C'est une petite révolution dans le traitement des patients difficiles atteints de fibrillation atriale », lance avec enthousiasme Jérôme Horvilleur, cardiologue spécialisé en rythmologie interventionnelle au sein de l'Institut Cardiovasculaire Paris Sud (ICPS), en parlant de VX1. Ce logiciel, développé par la pépite marseillaise Volta Medical, est actuellement testé dans le cadre d'une étude multicentrique internationale à laquelle participe l'ICPS. L'objectif de cette étude, baptisée TAILORED-A, est de démontrer l'efficacité du logiciel VX1 dans le traitement en bloc opératoire de la fibrillation atriale (FA). Ce trouble du rythme cardiaque, le plus complexe et le plus répandu au monde, consiste en des contractions du cœur de manière à la fois erratiques, rapides et irrégulières. Elles empêchent le cœur de pomper correctement le sang. Ce qui multiplie par quatre ou cinq la probabilité d'avoir un accident vasculaire cérébral (AVC). Cette tempête électrique se situe au niveau des oreillettes, c'est-à-dire des cavités supérieures du cœur qui pompent le sang avant qu'il ne soit renvoyé dans les ventricules. C'est la raison pour laquelle le traitement de la FA vise à ablater certaines parties de l'oreillette gauche afin de rétablir un signal électrique considéré comme normal. Ces ablations créent « des petites cicatrices pour bloquer ou pour éteindre des zones ayant un dysfonctionnement électrique », détaille Jérôme Horvilleur à L'Usine Digitale. Or, la principale difficulté est de localiser les zones à traiter. En effet, « à l'intérieur de l'oreillette, il est très difficile de distinguer les signaux vraiment pathologiques liés à la FA, des signaux pathologiques mais qui ne sont pas forcément en lien avec la FA et ceux normaux », détaille le cardiologue et investigateur principal de l'étude en cours. « Nous n'avions pas d'outils pour faire le distinguo », ajoute-t-il. Une phrase conjuguée au passé puisque le logiciel de Volta Medical vise justement à épauler le médecin dans la recherche des zones pathologiques. Sous anesthésie générale, l'ablation de fibrillation atriale se fait en deux temps : l'un consiste à localiser les zones à traiter et l'autre à les ablater. Dans le détail, des cathéters munis d'électrodes vont être amenés dans le cœur par la veine fémorale, située au pli de l'aine, pour enregistrer les signaux électriques cardiaques et déterminer les foyers de l'arythmie. C'est la phase dite d'exploration électrophysiologique cardiaque. La cartographie cardiaque tridimensionnelle permet au médecin de se repérer dans les cavités du cœur. Zone par zone, il va déterminer, en fonction des signaux enregistrés, s'il est nécessaire ou non de la détruire. C'est là que le logiciel de Volta Medical entre en scène. VX1 va analyser les électrogrammes mesurés dans le cœur du patient en temps réel pendant l'opération afin d'identifier les signaux à traiter, appelés électrogrammes dispersés. Il fournit également une estimation de la longueur du cycle à partir des électrogrammes enregistrés grâce à la cartographie et aux différents cathéters utilisés pendant la procédure. Un écran de contrôle permet à l'opérateur de voir les zones pathologiques repérées par le logiciel. Il repose sur un système d'apprentissage automatique propriétaire. Celui-ci a été développé par les fondateurs de Volta Medical, Julien Seitz, Clément Bars, Jérôme Kalifa et Théophile Mohr Durdez, trois médecins et un data scientist. Ils ont utilisé une base de données contenant 275 000 signaux issus de 105 patients atteints de fibrillation atriale. Chaque signal a été scrupuleusement annoté pour savoir s'il était ou non lié à la FA. Le logiciel permet ainsi de comparer en temps réel les signaux du patient malade à ceux préalablement annotés. Si le signal repéré est considéré comme pathologique par l'algorithme, alors VX1 prévient l'op&eacut e;rateur. Une fois la phase d'exploration déterminée, le médecin va encercler les zones malades afin de créer le tracé le plus logique et procéder à leur ablation grâce à des courants de radiofréquence. Ce type de traitement peut également être réalisé avec de la cryothérapie, c’est-à-dire l’application de froid grâce à un ballon de gaz qui, une fois dégonflé, épouse la forme de la zone à ablater. « C'est un véritable gain de confiance et de confort pour l'opérateur », déclare Jérôme Horvilleur. « Le logiciel permet d'avoir tous les signaux qu'il faut traiter ». En effet, il faut bien imaginer que les cathéters récoltent des milliers de signaux pour chaque zone, qui doivent ensuite être analysés par le m&eacut e;decin pendant parfois plusieurs heures. Depuis un an, l'ICPS a utilisé VX1 sur une vingtaine de patients. Le résultat est très encourageant, d'après le cardiologue. « Pour le moment, nous sommes très contents de ce que nous avons pu voir », indique-t-il. Au-delà d'un meilleur traitement pour les patients difficiles à soigner, le logiciel permet également de récolter de précieuses données pour en apprendre davantage sur la FA. Article rédigé par Georges Simmonds pour RT Flash Usine Digitale | | | |
| L'OMS estime que l'obésité touche à présent presqu'un habitant de la planète sur six, soit plus de 650 millions de personnes dans le monde. En France, cette pathologie continue à progresser : elle touche à présent 17 % de la population adulte (8,5 millions de personnes), contre 12 % en 2012. L'obésité mobilise aujourd’hui de nombreuses recherches pour mieux en comprendre les causes sous-jacentes et ainsi mieux prendre en charge les personnes qui en souffrent. Des chercheurs de l’école de médecine de l’Université de Berlin ont mis à jour les mécanismes moléculaires impliqués dans l’activation de la "protéine de la satiété", le récepteur de la mélanocortine 4, ou MC4R. Cette protéine pourrait devenir une cible potentielle pour des interventions médicamenteuses destinées aux personnes souffrant de surpoids ou d’obésité. Principalement présente dans le cerveau, MC4R est une protéine réceptrice qui est contrôlée par d’autres hormones qui produisent d'importants signaux de satiété en se liant à elle. C’est l'activation du MC4R par ces hormones stimulantes qui entraîne la sensation de satiété. À l'inverse, l'inhibition par l'antagoniste naturel de l'hormone, connu sous le nom de protéine liée à l'Agouti (AgRP), entraîne une augmentation de la sensation de faim. Dans le cadre de cette nouvelle étude, le professeur Peter Kühnen, médecin-chercheur à l'Institut d'endocrinologie pédiatrique expérimentale, a étudié les voies de signalisation qui sous-tendent la régulation du poids corporel chez l'humain. Il a également exploré les mutations des gènes codant pour les messagers et récepteurs cellulaires concernés et analysé le potentiel des médicaments susceptibles de remplacer les messagers individuels. « Jusqu'à présent, toutes ces interventions pharmacologiques ont été marquées par des effets secondaires », note le chercheur, qui cite notamment la pigmentation anormale de la peau ou encore les événements cardiovasculaires. Selon le Docteur Scheerer, co-responsable de l'étude, « la raison de ces effets secondaires indésirables réside dans la nature des médicaments actuellement disponibles. Au lieu de s'attaquer à une cible unique, ils sont généralement dirigés vers une série de récepteurs de la même famille qui, malheureusement, jouent des rôles différents dans notre corps. Grâce à nos travaux, nous allons pouvoir concevoir des médicaments bien plus ciblés et bien plus efficaces ». Article rédigé par Georges Simmonds pour RT Flash Charité | | | |
| Des chercheurs américains de l’Université de Pittsburgh, en analysant les données provenant du cerveau de 145 femmes d’âge moyen, dont 68 % des participantes avaient vécu un traumatisme, ont observé que les petits vaisseaux sanguins du cerveau de ces femmes semblaient avoir été abîmés, ce qui augmentait leurs risques de déclin cognitif, de démence et d’accident vasculaire cérébral. Les chercheurs ont tenu compte d’autres facteurs qui pourraient expliquer ces dommages, comme l’âge, le tabagisme, le diabète ou l’hypertension. Ces résultats ne surprennent pas la neuropsychologue Françoise Maheu, qui étudie l’impact de la violence sur le cerveau depuis de nombreuses années. Ses propres travaux ont ainsi démontré que le cerveau d’une femme qui a été victime de maltraitance chronique entre les âges de 0 et 9 ans ne fonctionne pas normalement à l’âge de 15 ou 16 ans, quand on le compare à un groupe témoin. « Il semble vraiment y avoir des atteintes au niveau du fonctionnement et même des structures », a-t-elle dit. Le volume de certaines structures du cerveau de femmes victimes de maltraitance à l’enfance ou à l’adolescence est souvent plus petit, à l’âge adulte, que celui des femmes qui n’ont pas vécu ce genre d’expérience, indiquent par ailleurs des études menées depuis la fin des années 1990 et le début des années 2000. Dépendant des régions du cerveau qui sont touchées, les réactions neuronales des femmes maltraitées seront diamétralement opposées à celles des femmes du groupe témoin, a dit Mme Maheu. D’autres études ont établi une association entre la dépression chronique à l’âge adulte et la démence plus tard pendant la vie. Donc, si les femmes agressées sexuellement sont ensuite plus vulnérables à la dépression, cela pourrait ouvrir la porte à une démence quelques années plus tard — essentiellement l’effet domino dont témoignent les chercheurs de l’Université de Pittsburgh. L’impact de l’environnement sur la manière dont l’ADN s’exprime, ce que les chercheurs appellent «l’épigénétique», pourrait être en cause. Dans le cas des femmes agressées sexuellement, ce traumatisme viendrait modifier la manière dont l’ADN s’exprime dans leur cerveau, entraînant les altérations mesurées par différents chercheurs. Article rédigé par Georges Simmonds pour RT Flash L'Actualité | | | |
| Nos besoins énergétiques quotidiens qui ne cessent d'évoluer au cours de la vie, en fonction de l’âge et de la morphologie, sont encore mal connus et ce sur la base d’échantillons limités. Herman Pontzer, de l’Université Duke, aux États-Unis, et ses collègues de nombreux pays ont récolté les données d’un échantillon de taille sans précédent pour retracer l’évolution des dépenses énergétiques durant différentes périodes de la vie. D’abord très élevée pendant l’enfance puis déclinant à l’adolescence, la dépense énergétique reste remarquablement stable pendant l’âge adulte, avant de décliner à nouveau à partir de 60 ans. La dépense énergétique quotidienne du corps humain inclut une composante incompressible, celle du métabolisme « de base », qui comprend les activités nécessaires à la survie de l’organisme : fonctionnement du cerveau, battements du cœur, digestion… Elle peut être déterminée par la méthode de calorimétrie indirecte, qui établit une équivalence entre l’énergie dépensée et la production de dioxyde de carbone par l’organisme. Ces dépenses vitales représentent 50 à 70 % des dépenses totales de l’organisme. S’y ajoutent les dépenses « de circonstances », liées à l’activité physique ou mentale, même faible. Herman Pontzer et ses collègues ont déduit cette composante en comparant la dépense de base avec des mesures de la dépense énergétique totale de l’organisme. Cette dernière est estimée par la méthode des isotopes : les participants à l’étude ingèrent de l’eau contenant des atomes d’oxygène 18 (un isotope stable mais rare par rapport à l’oxygène 16) et de deutérium (un isotope stable mais moins abondant de l’hydrogène). L’oxygène 18 et le deutérium sont éliminés par l’organisme à des vitesses différentes, et la différence entre ces deux vitesses dépend de la dépense énergétique du sujet, que l’on peut ainsi mesurer indirectement grâce à des échantillons d’urine. Ces mesures ont été répétées sur un échantillon constitué de plus de 6 400 personnes vivant dans 29 pays différents et âgées de 8 jours à 95 ans. Grâce à toutes ces observations, Herman Pontzer et ses collègues ont déterminé quatre grandes phases. La première, pendant les premiers mois de la vie, est marquée par une augmentation très rapide des dépenses énergétiques : rapporté à son poids, la dépense du nouveau-né dépasse vite celle d’un adulte, et lui est de 50 % supérieure entre 9 et 15 mois. La deuxième phase s’étend jusqu’à l’âge de 20 ans : la courbe des dépenses énergétiques s’y inverse. Aussi bien chez les garçons que chez les filles, elle chute, alors même que le pic d’activité physique quotidienne est atteint entre 5 et 10 ans. L’activité atteint ensuite, entre 20 et 60 ans, un plateau étonnamment stable, à tel point que la dépense énergétique n’est même pas affectée par une grossesse ! Les chercheurs ont en effet été étonnés de constater que les données énergétiques des femmes enceintes de l’échantillon ne s’éloignent pas significativement de celles du reste de l’échantillon à âge comparable. Après 60 ans, la masse des individus diminue également, mais à masse égale, les dépenses énergétiques déclinent tout de même, jusqu’à ne valoir à 90 ans que 74 % de leur valeur de l’âge adulte. Herman Pontzer et ses collègues constatent enfin une grande variabilité dans les résultats, même pour un même sexe, une même classe d’âge ou une même masse graisseuse. Même en tenant compte de ces ajustements sur de nombreuses variables explicatives, les valeurs des dépenses énergétiques restent très hétérogènes au sein de l’échantillon, ce qui suggère des variations au niveau cellulaire, qui restent à élucider. Article rédigé par Georges Simmonds pour RT Flash Pour La Science | | | |
| Les autorités de santé britanniques (National Health Service), ont approuvé un nouveau traitement hypocholestérolémiant novateur, dans le cadre d’un accord avec le laboratoire pharmaceutique Novartis sur trois ans. Le traitement concerné – l’inclisiran – sera administré par injection sous-cutanée à 300 000 patients à haut risque, à commencer par ceux qui souffrent d’une maladie génétique entraînant un taux de cholestérol élevé, mais également ceux qui ont déjà été victimes d’une crise cardiaque ou d’un accident vasculaire cérébral, ou encore les malades qui répondent mal aux traitements hypocholestérolémiants classiques, tels que les statines, qui bloquent la production du cholestérol. L’inclisiran est un petit acide ribonucléique interférent (pARNi) double brin, capable de bloquer l’ARNm codant pour PCSK9, une protéine dont l’expression favorise des taux élevés de LDL-c. Ce traitement utilise une technique thérapeutique connue sous le nom de « silençage génique » : elle cible un gène impliqué dans une affection et l’empêche de fabriquer la protéine pour laquelle il code. En d’autres termes, on bloque tout simplement le gène fautif identifié, ce qui permet, en théorie, d'agir directement sur les causes de la maladie, au lieu de traiter les symptômes qu’elle provoque. Jusqu’à présent, la plupart des traitements utilisant la neutralisation de gènes ont été mis en œuvre contre des maladies génétiques rares. Cela signifie que ce « vaccin » contre le cholestérol sera l’un des premiers médicaments capables d’éteindre un gène utilisés pour traiter des patients à grande échelle. Et ce ne serait qu’un début : des équipes étudient actuellement la possibilité d’utiliser ce type de technologie dans le cadre d’un large éventail de problèmes de santé, notamment la maladie d’Alzheimer ou les cancers. Les médicaments « suppresseurs » de gènes agissent en ciblant dans l’organisme un type spécifique d’ARN (acide ribonucléique, cousin de l’ADN - l’acide désoxyribonucléique), appelé ARN messager. Les ARN sont présents dans toutes les cellules de notre corps et jouent un rôle important dans la circulation de l’information génétique. Mais l’ARN messager (ARNm) est l’un des types d’ARN les plus importants, car il copie et transporte les instructions présentes sur notre ADN, dans les gènes notamment, lesquelles servent à fabriquer des protéines spécifiques. Dans le cas de l’injection d’inclisiran, le silençage génique vise à empêcher la production d’une protéine appelée PCSK9. Celle-ci participe normalement à la régulation du cholestérol dans notre organisme, mais elle est produite en excès chez les personnes présentant un taux élevé de cholestérol LDL (le « mauvais » cholestérol). En empêchant sa production, on va réduire le taux de cholestérol. Afin de cibler l’ARNm porteur des informations nécessaires à la synthèse de cette protéine, les chercheurs doivent créer en laboratoire un autre ARN, très petit, dit « interférent » : cet ARNsi (« si » pour small interferent) est capable de cibler spécifiquement un ARNm donné et ainsi d’interférer avec son bon fonctionnement. Dans notre cas, l’ARNsi est conçu pour venir se coller à l’ARNm qui porte les instructions pour la protéine PCSK9. Il se lie à lui et rend illisibles les instructions qu’il contient… ce qui réduit considérablement la quantité de ces protéines générées. Dans le cas de la thérapie génique, qui consiste à apporter à des cellules malades une version saine d’un gène déficient, on utilise généralement un vecteur viral pour administrer le traitement. Il s’agit d’un virus rendu inoffensif, qui est utilisé comme « véhicule » pour introduire dans la cellule la version saine des gènes, de la même manière qu’un virus qui les infecterait y ferait entrer ses propres gènes. Jusqu’à présent, de telles thérapies par vecteur viral ont été utilisées pour traiter des maladies génétiques du sang, des cécités génétiques et des atrophies musculaires spinales rares. La plupart des traitements visant à réduire les gènes au silence actuellement à l’étude sont administrés au moyen d’une technique différente, faisant appel à des vecteurs non viraux. Dans ce cas, le médicament est délivré via des nanoparticules dans lesquelles il est inclus. Celles-ci le protègent de la dégradation dans le sang, afin qu’il puisse être délivré à la cible (le foie, dans le cas qui nous intéresse). Ces thérapies d’extinction de gènes délivrées par vecteurs non viraux semblent plus prometteuses, car elles peuvent être administrées plusieurs fois, tout en limitant les effets secondaires. Elles sont déjà utilisées pour traiter une maladie génétique rare appelée amyloïdose héréditaire à transthyrétine (ATTR), a insi que dans les vaccins à ARNm, tels que BionTech-Pfizer et Moderna. Plusieurs autres médicaments de « gene silencing » font actuellement l’objet d’études pour traiter divers autres troubles : dans le domaine rénal (pour prévenir les réactions indésirables après une transplantation), de la peau (cicatrices), du cancer (mélanome, tumeurs de la prostate, du pancréas, du cerveau, etc.) et des troubles oculaires (notamment la dégénérescence maculaire liée à l’âge et le glaucome). Cette technique de silençage génétique, complémentaire des thérapies géniques, est appelée à jouer un rôle majeur pour développer de nouvelles pistes thérapeutiques très ciblées contre une multitude de maladies, cancer, diabète, Alzheimer, maladie de Huntington… Article rédigé par Georges Simmonds pour RT Flash Novartis | | | |
| Une étude de la Marshall University Joan C. Edwards School of Medicine (Virginie occidentale) montre que les régimes maternels riches en acides gras oméga-3 peuvent protéger les enfants à naître du cancer du sein. Ces travaux montrent de manière surprenante que des changements simples dans le régime alimentaire de la mère peuvent s'avérer plus tard très bénéfiques pour la santé de l'enfant. Cette étude a montré, chez la souris, le caractère protecteur des acides gras oméga-3 contre le développement du cancer du sein chez la progéniture. Précisément, les chercheurs observent une différence significative chez les souris nées de mères nourries avec un régime riche en huile de canola, vs de mères nourries avec un régime riche en huile de maïs. Le régime maternel riche en oméga 3 a induit des modifications épigénétiques bénéfiques pour la progéniture. Concrètement, cet effet se manifeste ici chez l’animal, par un retard de 3 semaines dans la mortalité chez les souris dont les mères ont reçu un régime riche en huile de canola plutôt qu'en huile de maïs. Les souris modèles de cancer ont toutes développé des tumeurs, mais celles nourries à l'huile de canola ont présenté des tumeurs à croissance plus lente et plus petites que les souris nourries à l'huile de maïs. Ce résultat soutient ceux de précédentes études, menées par la même équipe, et suggérant le lien entre les acides gras oméga-3 et la réduction de l'incidence d’autres types de cancer, dont la leucémie lymphoïde chronique et le lymphome diffus à grandes cellules B. Comme le souligne le Docteur Georgel, professeur de sciences biologiques à la Marshall University, « Nous avons révélé un nouvel et remarquable exemple d’héritage épigénétique, qui montre l’impact de facteurs de mode de vie des parents sur la santé des enfants. Cela suggère qu’opter pour un mode de vie sain permet non seulement de préserver sa santé mais aussi celle des générations à venir ». Article rédigé par Georges Simmonds pour RT Flash FCD | | | |
| Une équipe de scientifiques du Technion-Israël Institute of Technology affirme avoir trouvé un moyen de ralentir le processus de vieillissement du système immunitaire du corps. Cela pourrait permettre de réduire la sensibilité des personnes âgées au COVID-19. Selon le professeur Doron Melamed, le processus commence avec les cellules B, également appelées lymphocytes B. Ce sont les cellules qui produisent des anticorps contre tout agent pathogène qui pénètre dans le corps. Ces cellules sont produites dans la moelle osseuse et parcourent le sang à la recherche d’agents pathogènes pour les attaquer. Mais elles ne vivent pas longtemps, elles sont souvent reconstituées par de nouvelles cellules B. Cependant, toutes les anciennes ne disparaissent pas totalement et se transforment en cellules B « à mémoire » qui ont une longue vie. Ces cellules B à mémoire ne sont pas remplacées et s’accumulent avec le temps chez les personnes âgées réduisant leur capacité à éliminer les agents pathogènes. L’équipe a découvert le mécanisme permettant de contourner le système. « Nous avons trouvé des signaux hormonaux spécifiques produits par les anciennes cellules B, les cellules mémoire, qui empêchent la moelle osseuse de produire de nouvelles cellules B », a déclaré Melamed. « C’est une énorme découverte. C’est comme trouver une aiguille dans une botte de foin ». Cela signifie également qu’au fil du temps, des médicaments ou des traitements spécifiques pourraient inhiber l’une des hormones de la voie de signalisation et permettre à la moelle osseuse de produire de nouvelles cellules B. Article rédigé par Georges Simmonds pour RT Flash European Scientist | | | |
| Une équipe américaine de l'Université du Massachusetts Amherst a examiné l'association entre les pas quotidiens et les taux de mortalité. L’étude fait partie du projet CARDIA (Coronary Artery Risk Development in Young Adults). Il s’agit d’une étude d'observation menée auprès de 2.100 adultes d'âge moyen, âgés de 38 à 50 ans, qui ont porté un accéléromètre de 2005 à 2006 et suivis sur plus de 10 ans. Les chercheurs ont déterminé trois catégories : les "petits "marcheurs (moins de 7.000 pas par jour), les marcheurs moyens (entre 7000 et 9999 pas par jour) et les gros marcheurs (plus de 10 000 pas par jour). L’intensité du pas a été définie comme un nombre de 100 pas ou plus à la mn. L’étude révèle une association entre le nombre quotidien de pas et la santé, et non une relation de cause à effet. En revanche, elle n’identifie aucune association entre l'intensité des pas et la mortalité, précise l’auteur correspondant, Amanda E. Paluch. Les résultats de ce travail sont édifiants : les participants qui font au moins 7.000 pas par jour présentent un risque réduit de 50 à 70 % de décès ; autre enseignement, aucune association n'a été relevée entre l'intensité des pas et la mortalité, quel que soit l'ajustement avec l’ampleur des pas… Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Le diabète non insulino-dépendant, de type 2, se caractérise par un taux anormalement élevé et chronique de sucre dans le sang. Cette hyperglycémie est due à un manque d’insuline, une hormone produite par le pancréas, et qui régule naturellement le taux de glucose présent dans le sang. En France, 90 % des diabétiques sont concernés par cette maladie insidieuse, qui peut avoir une origine génétique, mais aussi être causée par une alimentation déséquilibrée, un manque d’activité physique ou encore un surpoids. De précédentes études ont déjà montré que la répartition des graisses dans le corps peut influencer le risque de développer diverses maladies, dont le diabète. Si un indice de masse corporelle (IMC) élevé peut en être un indicateur, il semblerait que ce soit notamment l'accumulation de graisse autour du cœur qui soit un facteur prédictif du diabète ou des maladies cardiovasculaires. Le problème est que mesurer la quantité de graisse autour des organes internes est, pour l’heure, encore impossible, comme le souligne le Docteur Zahra Raisi-Estabragh, de l'Université Queen Mary de Londres : « Malheureusement, la mesure manuelle de la quantité de graisse autour du cœur est difficile et prend du temps. C'est pourquoi, à ce jour, personne n'a été en mesure de l'étudier de manière approfondie dans des études portant sur de grands groupes de personnes ». Pour pallier ce problème, son équipe de chercheurs a mis au point un outil d’intelligence artificielle capable, à partir d’images de scanner IRM, de mesurer automatiquement, et en moins de 3 secondes, la quantité de graisse entourant le cœur. « Cet outil pourra être utilisé par les futurs chercheurs pour en savoir plus sur les liens entre la graisse autour du cœur et le risque de maladie, mais aussi potentiellement à l'avenir, dans le cadre des soins standard dispensés aux patients à l'hôpital », affirme le Docteur Raisi-Estabragh. Pour développer cet outil, l'équipe de recherche a testé la capacité de son algorithme à interpréter les images des IRM cardiaques de plus de 45 000 personnes, y compris des participants à la UK Biobank. Très précis, il est capable de déterminer la quantité de graisse autour du cœur sur ces images, mais aussi de calculer le risque de diabète d'un patient. Selon le Professeur Steffen Petersen, qui a supervisé le projet, « ce nouvel outil a une grande utilité pour la recherche future et, si son utilité clinique est démontrée, il pourrait être appliqué dans la pratique clinique pour améliorer les soins aux patients ». Article rédigé par Georges Simmonds pour RT Flash FICM | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|