| | Edito Les drones nous font entrer dans l'ère de l’hyper-mobilité
Ils sont à présent partout et se sont imposés dans tous les secteurs d’activités, défense, sécurité, commerce, agriculture, loisirs, environnement, industrie, transports…Certains ne mesurent que quelques cm (et ne pèsent que quelques grammes), d’autres ont une envergure de 30 mètres, pour un poids de 10 tonnes. Vous l’aurez deviné, ce sont les drones, devenus omniprésents dans nos cieux. Et cette révolution ne fait que commencer, car dans 20 ans, les drones de toute nature se compteront par centaines de millions et rendront des services inestimables à l’homme. Le marché mondial des drones (incluant des drones militaires) pourrait passer de 18 milliards de dollars à 48,8 milliards de dollars d’ici 2023 selon le Cabinet PWC. Jusqu’à présent, les drones militaires détenaient la plus grande part de marché, mais à partir de 2020, ce sont les fabricants de drones commerciaux -dont le Chinois DJI, leader du marché avec 2,7 milliards de chiffre d’affaires en 2017- qui devraient prendre la tête du marché en raison de la forte demande attendue dans le secteur commercial. Un autre rapport sur le développement des drones en Europe (Voir Europa) prévoit pour sa part que plus de 400.000 drones civils assureront une multitude de services commerciaux en Europe à l’horizon 2050 ; ce marché professionnel représentera alors un chiffre d’affaires de l’ordre de 10 milliards d’euros en 2035 et 15 milliards d’euros en 2050. Les trois secteurs qui domineront ce marché devraient être l’agriculture de précision, les urgences médicales et la sécurité publique. Mais c’est dans le domaine militaire que les drones ont fait leur entrée la plus spectaculaire depuis une vingtaine d’années. Si le tout premier drone militaire a été expérimenté avec succès en 1917 sur la base d’Avord (Cher) par le Capitaine Max Boucher, il a fallu attendre 1979 pour voir voler un drone militaire moderne digne de ce nom, et les armées du monde entier ont véritablement commencé à s’équiper en 1991. A partir de 2001, les drones de combat, de type Predator, ont joué un rôle de plus en plus important sur les différents théâtres d’opérations militaires et dans la lutte mondiale contre le terrorisme islamiste. Le Predator est destiné à être remplacé par le MQ-9 Reaper. Conçu par General Atomics, ce drone a une envergure de 20 mètres, pour une longueur de 11 mètres. Il pe ut atteindre une vitesse de 480 km/h et voler à plus de 15 000 mètres, pour un rayon d'action de 1.850 km. Sa puissance de feu est redoutable, grâce à ses bombes à guidage laser et ses missiles air-sol Hellfire. Il y a un an, l’armée de l’air américaine a testé un drone militaire, baptisé XQ-58 Valkyrie. Celui-ci a effectué son premier vol test mardi 5 mars 2019. L'essai a duré un peu plus d’une heure et s’est déroulé en Arizona, à 300 km à l’Est de San Diego. Cet engin tactique destiné à l’US Air Force a été développé en collaboration avec le laboratoire de recherche de l’armée de l’air américaine. Le XQ-58 Valkyrie mesure 9 mètres de long pour une envergure de 7 mètres. Il devrait disposer d'un rayon d'action d'au moins 4 000 km et dépasser la vitesse de 1 000 km/h. De par sa forme et sa motorisation (un seul réacteur), il ressemble fort au BATS, futur drone militaire de Boeing. Son rôle sera d’escorter des avions de combat (type F-18 ou F-35) pour des missions de surveil lance ou d’attaque. Car le Valkyrie pourra être équipé de 250 kg de missile ou de bombe. La Russie a également présenté en 2018 son drone de nouvelle génération. Baptisé Okhotnik, ce redoutable engin a la forme d’une aile volante et devrait pouvoir voler à la vitesse de 1.000 km/h. Conçu avec des matériaux composites et un revêtement anti-radar, sa masse pourrait atteindre vingt tonnes à pleine charge et son rayon d’action serait de l’ordre de 6.000 km. En outre, d’après l’agence TASS, ce drone pourra « mener de façon autonome des missions de combat », grâce à l’intelligence artificielle. Cependant, la décision de frappe restera humaine et ne sera pas confiée à l’ordinateur de bord. En Europe, le projet de drone de combat furtif nEUROn poursuit son développement depuis 2012, avec une nouvelle campagne d'essais débutée en janvier dernier et visant à tester la furtivité du nEUROn. Rappelons que le nEUROn est le fruit d'un programme européen ayant impliqué Dassault Aviation pour la France, Leonardo pour l'Italie, Saab pour la Suède, Airbus pour l'Espagne, Hellenic Aerospace Industry pour la Grèce et RUAG pour la Suisse. D'une longueur de 10 mètres et d'une envergure de 12 à 12,5 mètres, le nEURON pèse 6,5 tonnes à pleine charge ; il peut voler à 980 km/h (Mach 0,8) et est doté d’une furtivité radar et infrarouge. L’Europe va également se doter d’un nouveau drone de combat moyenne distance, de type MALE (Moyenne Altitude Longue Endurance). Cet eurodrone MALE est développé par Airbus Defence & Space, Dassault Aviation et Leonardo (ex-Finmeccanica) dans un projet financé par l’Allemagne (31 %), la France (23 %), l’Italie (23 %) et l’Espagne (23 %). Cet appareil devra être opérationnel dès 2025 et pourra à la fois remplir des missions de renseignement et de surveillance, et effectuer des frappes pilotées à distance. Pour la France, comme l’a indiqué le ministère des Armées, ces drones MALE remplaceront dès 2025 les drones américains MQ-9 Reaper pour devenir l’un des éléments du Scaf (système de combat aérien du futur). Dans ce cadre, ils seront connectés à des avions de chasse de nouvelle génération développés en partenariat par Dassault et Airbus, à un réseau de satellites, au système de combat de l& #8217;Otan et aux systèmes de combat terrestres et navals. Complémentaires des drones de combat à long rayon d’action, des microdrones et nanodrones sont également en train de s’imposer sur le champ de bataille, en raison de leur souplesse d’emploi et de leur extrême discrétion. Au début de l’année, l’armée française a commandé 1 900 micro-drones américains de type Black Hornet PRS 3. Le Black Hornet PRS est un mini drone de seulement 16 centimètres de long et au poids plume de 33 grammes. Pratiquement silencieux, il peut voler jusqu’à 10 mètres d’altitude et parcourir 5 mètres par secondes. Il permet au soldat d'obtenir des vidéos en direct et des images HD, tout en restant discret. Tout le matériel du système est suffisamment compact pour être transporté sur la ceinture. Le tout pèse seulement 1,3 kilogramme. « Auparavant, nous aurions e nvoyé des soldats en reconnaissance pour voir s’il y avait des combattants ennemis cachés dans un bâtiment. Maintenant, nous déployons le Black Hornet pour regarder à l’intérieur ». Boeing vient par ailleurs de dévoiler son drone militaire BATS (Boeing Airpower Teaming System). Cet appareil long de 12 mètres, propulsé par un réacteur, se destine au vol en escadrille afin d’accompagner des avions de combat lors de missions de reconnaissance, de renseignement ou de guerre électronique. Mais les drones, on le sait moins, sont également au cœur d’une révolution en matière de sécurité publique et de lutte contre la criminalité. Aux États-Unis, plus de 900 équipes de secours (policiers, pompiers ou services des urgences), à travers tout le pays, ont déjà opté pour l'utilisation de drones dans leurs tâches quotidiennes. À New-York, la police vient de se doter de onze drones, de type DJI Mavic Pro, deux DJI Matrice 210 RTK et un DJI Inspire 1. Ces appareils volants pourront aider la police sur plusieurs types d'opérations, comme dans la recherche et le sauvetage d'un individu, des enquêtes sur une scène de crime difficile d'accès, des prises d'otages et dans le cas d'un incident matériel. Ils ne seront pas déployés pour les patrouilles de routine, l'immobilisation d'une voiture ou d'un suspect, ainsi que dans la réglementation de la circulation. Le commissaire de police du NYPD James P. O'Neill précise toutefois que « Seuls les officiers qui auront été formés pourront utiliser les drones, qui ne seront en aucun cas armés ». En France, la police nationale a également commencé à utiliser des drones dans certaines situations qui nécessitent une récolte discrète et rapide d’informations sur des lieux sensibles (prises d’otage, manifestations). Les collectivités locales souhaitent également pouvoir recourir à ces auxiliaires de plus en plus appréciés. La commune d’Istres (Bouche du Rhône) s’est ainsi dotée, il y a un an, de deux drones qui sont utilisés dans le cadre de la protection civile des bois et forêts, mais aussi pour sécuriser les personnes dans de grands rassemblements, ou encore pour suivre et prévenir la délinquance dans certains quartiers. Les drones choisis à Istres sont très discrets ; ils pèsent moins de 4 kg et sont capables de voler à 60 km/h. Ils sont équipés d’une caméra qui permet de faire des zooms suffisamment loin de la foule pour respecter la réglementation. La commune d’Asnières, en région parisienne, souhaite également doter sa police municipale de drones de surveillance pour lutter contre la délinquance et les trafics dans sa commune. Les drones de surveillance seraient utilisés en complément des caméras de vidéosurveillance déjà installées dans la ville d’Asnières qui compte 86.000 habitants. Les drones vont également, dans les 5 ans qui viennent, profondément bouleverser le domaine de la livraison et de la distribution commerciales. En février dernier, le cabinet Frost&Sullivan a publié une étude analysant le marché des livraisons par drones. Selon ce rapport, les livraisons par drones représenteraient un marché au potentiel considérable, qui devrait se développer au cours des prochaines années. 2,2 millions de drones de livraison devraient ainsi être employés en 2025. L’agence Tractica prévoit pour sa part que le marché mondial des drones commerciaux passera de 600 millions à 12,5 milliards de dollars d’ici 2025 (Voir Tractica). Il y a peu, le géant de la livraison UPS a décidé de collaborer avec la startup de drones de livraison autonome Matternet pour tester l’approvisionnement des centres médicaux par voie aérienne. L’expérience a eu lieu dans l’hôpital WakeMed de Raleigh, en Caroline du Nord. Des fournitures médicales mais aussi un rein dédié à la transplantation ont été livrés via les quadricoptères M2 de Matternet. Ce programme est supervisé par la Federal Aviation Administration (l’organisme public ayant à charge l’aviation civile) et le département des transports de Caroline du Nord. Les drones seront approvisionnés depuis les dépôts de l’hôpital WakeMed, par des professionnels de la santé, avant d’être dirigés vers le bâtiment principal et le laboratoire. Les engins à quatre hélices pourront transporter jusqu’à deux kg de charge et seront suffisamment fiables et sécurisés pour transporter des matières biologiques, comme des échantillons sanguins. Dans un premier temps, l’approvisionnement aura lieu uniquement depuis les dépôts de WakeMed car les drones retenus ont pour l’instant une autonomie d’un vingtaine de 20 km. Lors de leur livraison, ils suivront une trajectoire de vol prédéterminée et seront chacun surveillés individuellement par un spécialiste du pilotage d’aéronef. L’atterrissage et la réception de leur contenu auront lieu sur des aires d’atterrissage à l’hôpital principal et au laboratoire de WakeMed. Ce programme pourrait bouleverser le fonctionnement des livraisons interhospitalières aux Etats-Unis. En effet, UPS et Matternet souhaitent utiliser le programme pour voir comment les drones pourraient être utilisés afin d’améliorer les transports dans d’autres établissements médicaux des États-Unis. Il faut enfin évoquer la première mondiale réalisée le 15 mars dernier par Airbus, qui a réussi à effectuer une livraison sur un bateau grâce à un drone. Baptisé Skyways, l'appareil est parti du port de Singapour avec un paquet de 1,5 kilo qu'il est allé déposer en une dizaine de minutes sur un navire stationné à 1,5 kilomètre des côtes. D'un diamètre de 2,4 mètres et d'un poids de 30 kilos, l'engin est entièrement autonome. Il se déplace dans des couloirs aériens réservés, à une vitesse de 10 m/s. Sa capacité de transport de 4 kilos et son rayon d'action de 3 kilomètres pourraient lui permettre de devenir la solution idéale pour les livraisons urgentes en mer, comme du matériel médical, de la nourriture et des pièces de rechange. Mais Skyways a un autre avantage décisif : sa propulsion est entièrement électrique. "L'utilisation de drones autonomes réduit les délais de livraison par six, les coûts de transport de 90 %, abaisse l'empreinte carbone et atténue considérablement les risques d'accidents", souligne Airbus qui précise que la généralisation de ce type de drone dans le secteur maritime pourrait permettre de réaliser un chiffre d'affaires d'environ 675 millions d'euros par an… Pour réussir ce projet, Airbus s'est associé l’année dernière avec Wilhelmsen Ships, l'un des leaders mondiaux des services et de la logistique portuaire. Fort de ce succès, d'autres essais sont prévus avec des charges plus lourdes, sur des distances plus longues. Le prochain consistera à livrer l'Université de Singapour, afin de tester les capacités de l'appareil dans un environnement urbain. L'objectif à terme est de créer un véritable réseau de services, s’appuyant sur une flotte de drones mobilisables très rapidement, en cas de besoin. Les drones sont aussi en train de s’imposer comme outil indispensable, avec le satellite, les robots agricole et l’IA, dans une agriculture de précision, à la fois plus productive et plus respectueuse de l’environnement. Le constructeur de drones Delair a présenté au cours de dernier Sima, salon du machinisme agricole et de l’agrofourniture, qui se tenait il y a quelques semaines, son nouveau drone UX11, une « aile volante », équipée de capteurs haute-précision (capteur multi-spectral MicaSense RedEdge MX). Il s’agit d’un engin compact et robuste (1,1 m d’envergure pour 1,5 kg), spécialement conçu et équipé pour effectuer de manière autonome des vols planifiables sur les parcelles de grands superficies à cartographier. Doté d’une double connectivité radio et 3G/4G, ce drone peut prendre des clichés haute résolution dont la qualité peut être contrôlée en temps réel, afin d’accélérer les étapes de collecte et de traitement des données et réduire d’autant son coût global d’utilisation. Il dispose d’une une autonomie de vol de 55 minutes. Il peut couvrir 30 hectares en 10 minutes de vol, pour un coût opérationnel avoisinant les 0,70€ /ha. Avec un drone aussi efficace et perfectionné, l’agriculteur peut très facilement évaluer son niveau de production et identifier les anomalies de production liées à la météorologie ou aux nuisibles, ce qui lui permet d’anticiper et de réagir immédiatement pour traiter une parcelle précise. Les images captées sont traitées à l’aide d’un puissant logiciel d’IA qui va pouvoir évaluer les niveaux d’azote, de chlorophylle, et de biomasse, ainsi que le taux d’humidité. Ce système d’observation et de prévision peut également devenir un auxiliaire précieux pour surveiller et gérer les troupeaux. On le voit, les drones, qui ne cessent d’améliorer leurs performances, vont nous faire entrer, en moins d’une génération, dans l’ère de l’hypermobilité, et ils évolueront demain absolument partout, y compris à l’intérieur des bâtiments (grâce à de nouveaux systèmes de guidage autonome pouvant se passer du GPS). Nous ne pouvons que nous féliciter de cette révolution technologique qui va permettre d’accomplir des avancées majeures dans des domaines aussi variés que la sécurité, la prévention et la gestion des risques, la protection de l’environnement, la production agricole durable, ou encore la livraison ultrarapide. Il reste que ce saut technologique va nécessiter une évolution complète de notre cadre législatif et réglementaire en matière de gestion de l’espace aérien et suscite également de nombreuses et légitimes interrogations en matière de protection de la vie privée et de l'intimité de chacun. A cet égard, il est capital, pour que notre société accepte ce bond technologique, que l’utilisation de ces engins volants, dont beaucoup seront indétectables, soit strictement encadrée et contrôlée, de façon qu’ils ne puissent pas être utilisés à des fins illicites ou criminelles. Cela suppose notamment la mise en place, au niveau mondial, d’un système très sophistiqué d’identification et de traçabilité de l’ensemble de ces engins volants. Il n’est pas exagéré de dire que cette révolution des drones aura, sur nos économies et nos sociétés, un impact comparable à celui qu’a eu en son temps l’avènement du train, de l’automobile, et de l’aviation. Dans ce domaine, comme dans bien d’autres, il est vital que l’Europe sache unir ses efforts et ses capacités d’innovation pour prendre, face aux géants chinois et américains, toute sa place dans cette course pour le contrôle du ciel… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | La production de médicaments est un processus long et coûteux. En effet, les coûts vont d’un demi-milliard à 2,5 milliards de dollars par médicament, sur 10-15 ans et seul un candidat médicament sur dix arrive jusqu'au stade de la mise sur le marché. Dans le passé, de nouveaux médicaments ont été découverts par hasard, la découverte de la pénicilline en étant l’exemple le plus célèbre. Mais les processus modernes sont informatisés et plus systématiques, à commencer par un criblage d’un nombre gigantesque de molécules et la sélection de celles qui ont le plus grand potentiel thérapeutique. Des chercheurs du Technion, les docteurs Kira Radinsky et Shahar Harel, ont développé une nouvelle approche pour la génération de molécules thérapeutiques candidates. Selon l’équipe du Technion, l’hypothèse de travail est que le vocabulaire de chimie organique lié au développement de médicaments est similaire à celui d’une langue naturelle. Le système développé utilise l’intelligence artificielle et le deep learning. Il s’est approprié le langage basé sur des centaines de milliers de molécules, puis il lui a été fourni la composition chimique de tous les médicaments approuvés depuis 1950, qui a servi de prototype, et à partir de laquelle sont générées de nouvelles variations, c’est-à-dire de nouveaux médicaments potentiels. Afin de générer un système créatif, du « bruit » a été ajouté dans le système, ce qui engendre de la diversité et permet ainsi de générer de nombreuses variantes de médicaments existants. Ainsi, le système repose sur un langage pharmacologique, des données sur les médicaments existants et un mécanisme favorisant la créativité. Lorsqu’ils ont demandé au système de proposer 1 000 médicaments à base de versions anciennes de ceux-ci, les chercheurs ont été surpris de découvrir que 35 des nouveaux médicaments générés par le système étaient des médicaments déjà développés et approuvés par la FDA (Food and Drug Administration) aux Etats-Unis après 1950. Selon le Docteur Radinsky, ce programme est non seulement un moyen de rationaliser les méthodes existantes, mais également de générer de nouveaux paradigmes concernant le développement de médicaments. En effet, l’ordinateur n’est pas plus intelligent que l’homme, mais il peut gérer des quantités énormes de données et trouver des corrélations inattendues. C’est ainsi qu’il a été possible de trouver (dans une autre étude) des effets secondaires inconnus de diverses associations médicamenteuses. L’importance de la présente étude est à mettre en rapport avec la loi d’Eroom, qui affirme que le nombre de nouveaux médicaments approuvés par la FDA devrait diminuer d’environ 50 % tous les 9 ans, si l’on tient compte du rapport entre le nombre de nouveaux médicaments mis sur le marché et l’investissement en recherche et développement. En revanche, la loi d’Eroom note que, chaque année, de moins en moins de médicaments seront commercialisés. Le deep learning permettrait ainsi de circonvenir ce problème et d’aider au développement de nouveaux composés. Le Docteur Radinksy prévoit que ce nouvel outil accélérera et réduira les coûts de développement de médicaments nouveaux et efficaces, réduisant ainsi le temps d’attente des patients. De plus, cette percée devrait conduire au développement de médicaments qui n’auraient pas été générés avec une approche pharmacologique conventionnelle. Article rédigé par Georges Simmonds pour RT Flash Technion | | | |
| En dépit de la puissance phénoménale des superordinateurs actuels, dont certains, comme le nouveau calculateur Aurora d'Intel, vont bientôt atteindre l'exaflop (un milliard de milliards d'opérations par seconde) il n’est pas possible de résoudre grâce à l'informatique certains types de problèmes pour lesquels le nombre de solutions possibles croît exponentiellement. C'est pourquoi de nombreux laboratoires cherchent à mettre au point un ordinateur quantique qui serait capable de résoudre ce genre de problème dans un temps raisonnable. Aujourd’hui, les bits, unités de mesure de base en informatique, peuvent exister sous deux formes seulement : 0 et 1. Or les bits quantiques peuvent exister dans des états qui correspondent à 0 et 1 à la fois : c’est la superposition quantique. Cependant, ces états superposés peuvent exister seulement s’ils ne sont pas mesurés ou observés. Par conséquent, les qubits (bits quantiques) doivent à la fois être isolés et interagir avec de nombreux autres qubits. Une solution prometteuse consiste à construire de petits systèmes de qubits reliés entre eux par des liens optiques. L’information stockée dans un qubit est transférée à un autre qubit par le biais d’un photon, particule élémentaire composant la lumière. Un tel système présente deux obstacles conséquents : un photon transporte une très faible quantité d’énergie et les systèmes minuscules contenant les qubits interagissent peu avec de la lumière si faible. A l'Institut Weismann, en Israël, l'équipe du Professeur Dayan a réussi, pour la première fois, à créer une porte logique dans laquelle un photon et un atome échangent automatiquement l’information qu’ils transportent. Le principe est le suivant : le photon transporte un qubit et l’atome, qui est un système quantique, est un autre qubit. Chaque fois qu’ils se rencontrent, ils échangent automatiquement et systématiquement leurs informations. Cette porte logique peut donc être utilisée pour échanger de l’information à la fois à l’intérieur de et entre ordinateurs quantiques. Cette porte ne nécessite pas de contrôle extérieur et peut par conséquent être utilisée pour créer de larges réseaux. Un pas de plus vers les ordinateurs quantiques ! Article rédigé par Georges Simmonds pour RT Flash Weizmann Institute | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Après le robot qui découpe la salade développé par l’Université de Cambridge et les fermes digitales comme Mimosa, c’est au tour du MIT d’annoncer la naissance d’une intelligence artificielle qui optimise notamment les saveurs du basilic ! Cette innovation est le fruit de la collaboration du MIT, du MIT Media Lab, et de l’Université du Texas autour d’une étude qui avait pour objectif d’automatiser et de perfectionner l’agriculture. Cette automatisation de l’agriculture doit être capable de prendre en compte plusieurs variables, notamment le sol, les caractéristiques de la plante, la fréquence et le volume d’arrosage, ou encore la lumière. En plus de cela, il est nécessaire de savoir si les saveurs de la production correspondent aux attentes des consommateurs. Caleb Harper, du MIT, explique que l’intérêt de cette technologie est de développer un outil qui prend en compte l’expérience de la plante, tous les éléments auxquelles elle doit faire face, sa génétique végétale, ainsi que son phénotype. Toutes ces informations sur l’environnement d’une plante sont ensuite digitalisées, afin d’être analysées et mieux comprises. Il indique également que l’objectif est de créer une technologie open source, qui unit la collecte des données et le machine learning afin de pouvoir être déployée dans le cadre de la recherche agricole. John de la Parra, chercheur du OpenAg group et auteur de l’étude en question, affirme que les résultats de cette expérience permettront d’acquérir un savoir important, rapidement. Selon ce chercheur, l'IA va permettre d'optimiser et d'améliorer considérablement les productions sous serre, milieu dans lequel l'ensemble des variables peut être facilement contrôlé. Article rédigé par Georges Simmonds pour RT Flash MIT | | ^ Haut | |
|
| | | Les aérogels sont les matériaux solides les moins denses connus : de 1 000 à 10 000 fois moins que l’eau ! Un bloc d’aérogel de la taille d’un morceau de sucre a ainsi une masse de l’ordre du milligramme… Les aérogels en céramique sont en outre très résistants au feu et à la corrosion, et sont des isolants thermiques exceptionnels. Hélas, ces matériaux se cassent facilement lorsqu’ils sont soumis à des contraintes mécaniques ou à des chocs thermiques. C’est à cette fragilité que se sont attaqués Xiang Xu, de l’Université de Californie, et ses collègues. En utilisant du nitrure de bore, une céramique solide, ils ont mis au point un aérogel très élastique et résistant aux brusques changements de température. Les parois des pores de cet aérogel ont la propriété d’être creuses, ce qui augmente leur capacité à se déformer en réponse à une forte compression mécanique ou à des chocs thermiques. L’architecture globale du matériau est ainsi conservée, ce qui évite l’apparition de fissures. Pour synthétiser ce matériau, les chercheurs réalisent un premier aérogel dont les parois sont constituées de feuillets de graphène. Le nitrure de bore est ensuite déposé sur ces parois, puis la structure est chauffée à 600°C dans l’air. Cette dernière opération calcine le graphène, et il ne reste alors qu’un film céramique très fin, d’épaisseur atomique, épousant la forme des vides laissés par le carbone. Le matériau obtenu, qui ressemble à une mousse blanche fine et légère, a une densité comprise entre 0,1 et 10 milligrammes par centimètre cube. Il résiste à des variations de température de 275°C par seconde entre – 200°C et 1 400°C. De même, il retrouve sa forme et ses caractéristiques physiques après une compression de 95 % de son volume. Jusqu’alors, les aérogels les plus élastiques étaient détruits par une compression quatre fois moins importante. En outre, ces propriétés mécaniques n’altèrent en rien le caractère isolant du nouvel aérogel. Sa conductivité thermique est plus faible que celle de l’air : une couche de 2 centimètres d’épaisseur chauffée à 500°C d’un côté pendant 15 minutes atteint à peine 45°C sur l’autre. Pour Xiang Su et ses collègues, ces caractéristiques font de cet aérogel céramique un candidat sérieux pour les équipements d’engins spatiaux, qui doivent à la fois présenter d’excellentes propriétés isolantes et une robustesse à toute épreuve. Article rédigé par Georges Simmonds pour RT Flash Pour La Science | | | |
| A l'aide d'un simple laser et d'une puce de quelques millimètres, des chercheurs de l’EPFL sont parvenus à fabriquer une source de lumière qui sonde les molécules dans l’infrarouge moyen. De la taille d’une minuscule valise, le dispositif a le potentiel de sonder la présence de nombreux gaz tels que les gaz à effet de serre, et même certaines molécules dans l’haleine. La région spectrale de l’infrarouge moyen est très prisée des scientifiques. C’est en effet l’une des régions où l’on peut détecter les molécules importantes en termes de santé et d’environnement. Mais générer des lasers dans ce spectre, avec des longueurs d’onde spécifiques, requiert des installations sophistiquées et sensibles, ce qui les rend difficilement transportables. La technologie des chercheurs de l’EPFL pourrait changer la donne. En combinant un laser fibré -disponible dans le commerce-, et une puce avec des guides d’ondes micrométriques, ils ont généré des ondes de façon très performantes dans l’infrarouge moyen. A titre de démonstration, ils ont ensuite couplé leur dispositif à un spectromètre pour détecter la présence et la concentration de molécules d’Acétylène, un gaz incolore très inflammable. Les chercheurs utilisent un laser fibré compact et robuste, qui émet dans une bande spectrale spécifique. Le laser est injecté dans un guide d’onde micrométrique (0.001 mm), d’un demi-millimètre de long. Ce guide d’onde a la capacité de changer la fréquence de la lumière qui s’y propage. A la sortie du guide apparaît une lumière située dans l’infrarouge moyen, qui restitue 30 % de la puissance de la lumière initiale. En modifiant les dimensions du guide, les chercheurs peuvent en outre « régler » la longueur d’onde du laser généré. « C’est un record en terme d’efficacité. Cela permet pour la première fois de faire des mesures spectroscopiques à partir d’une source laser complètement intégrée », explique Davide Grassani, l’un des auteurs de l’étude. Il n’y a pas non plus besoin d’aligner précisément les différents éléments comme c’est le cas dans les dispositifs traditionnels. » Ce résultat a été obtenu en optimisant tous les paramètres importants, c’est-à-dire la géométrie du guide d’onde, le matériau dont il est constitué et la longueur d’onde de la source du laser d’origine. « Nous avons effectué un gros travail de design, qui rend le dispositif extrêmement efficace, simple à utiliser et robuste », commente Camille Brès, coordinatrice du projet et qui dirige le Laboratoire de systèmes photoniques à la Faculté des sciences et techniques de l’ingénieur. La recherche ouvre de nombreuses possibilités de miniaturisation, pour une zone spectrale (l’infrarouge moyen) généralement peu accessible pour les scientifiques. « Avec un peu de développement, on pourrait imaginer faire de la détection directement sur une puce. Il serait alors très facile d’emporter ces instruments sur le terrain », conclut la chercheuse. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| C'est une communauté pour le moins confidentielle mais très active, celle des adeptes du mycélium non mycologues, par exemple. Ils s’intéressent à la partie souterraine des champignons, baptisée mycélium, pour sa capacité à agglomérer des substrats tels que des copeaux de bois. Selon le moule employé, le mycélium peut fabriquer ainsi une brique, un panneau, un objet design, un meuble ou des chips d’emballage. Huit étudiants de la Faculté ENAC se sont pris de passion pour ces filaments d’eucaryotes à faire pousser soi-même, potentiellement capables de remplacer le plastique. « Notre projet est né d’une rencontre entre des étudiants en ingénierie de l’environnement et en architecture à la recherche d’une alternative originale et innovante aux matériaux polluants», raconte Gaël Packer. Inspirés par un TED talk, ils décident d’apporter leur pierre à cette communauté de pionniers préoccupés par l’avenir de notre planète. Leur motivation : en tant que futurs acteurs de la construction, nous devons être conscients que d’une part les matériaux que nous utilisons aujourd’hui n’existeront peut-être plus demain, faute de ressources et, d’autre part, que les matériaux de construction produisent d’innombrables déchets, de leur production à leur élimination. D’où leur fascination pour cette substance à base de déchets, facile à produire, biodégradable en 3 mois, légère, bon marché et aux propriétés prometteuses. La recette pour l’obtenir est connue et des kits grow it yourself sont même vendus sur Internet. Il suffit de mycélium, de substrat et de temps (non inclus dans le kit). Il faut d’abord cultiver en milieu stérile ou pasteurisé ces « racines » de champignon, mélangées au substrat et nourries de farine et d’eau. Compter ensuite une bonne semaine pour que le mélange épouse la forme du moule. Enfin, cuire à basse température afin d’arrêter sa croissance et de figer la forme. Il en résulte un bloc léger, de basse densité, solide et résistant. Comme s’il avait été construit par une imprimante 3D. Dans un esprit d’indépendance autant que d’écologie, les étudiants ont d’abord concocté une version locale de la recette, à base de mycélium de pleurotes communes et des fibres de chanvre jurassien. « En collaboration avec plusieurs laboratoires de l’EPFL, nous avons effectué des tests d’isolation thermique et d’absorption acoustique, de compression et de résistance à l’eau et au feu », précise Gaël Packer. Le bilan est éloquent : le pouvoir d’isolation thermique du matériau obtenu est comparable à celui d’autres isolants, il supporte facilement le poids d’un être humain, flotte et est étanche, résiste relativement au feu et, enfin, des tests sont en cours concernant l’absorption phonique… Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| La spectrométrie laser à cascade quantique est maintenant une méthode établie pour mesurer efficacement et précisément différentes concentrations de gaz. Jusqu’à présent, les appareils laser ont particulièrement bien réussi à mesurer de petites molécules, telles que les polluants atmosphériques gazeux ou les gaz à effet de serre. Les chercheurs de l’Empa ont toutefois réussi à optimiser un spectromètre laser afin de pouvoir mesurer de plus grosses molécules. « Nous avons pu visualiser la structure fine de l’absorption infrarouge des molécules », explique Lukas Emmenegger, responsable du département Pollution de l’air / Technologie environnementale. Afin de déterminer les concentrations des différentes molécules d’un mélange gazeux, un faisceau de laser est projeté à travers une cellule dite à réflexion multiple sur le mélange gazeux, la lumière du laser étant ensuite absorbée par les molécules du gaz. Plus l’absorption de la lumière est importante, plus la concentration des molécules concernées est élevée. Afin de pouvoir quantifier de plus grosses molécules, les chercheurs ont utilisé un laser à très haute résolution, réduit la pression de l’échantillon de gaz et minutieusement examiné les données. En conséquence, les déviations les plus fines des spectres sont devenues visibles. Cette nouvelle réalisation des chercheurs de l’Empa connaît un tel succès qu’elle est déjà utilisée. En collaboration avec l’Institut fédéral de métrologie (METAS), l’équipe a développé un appareil permettant de comparer les gaz de référence utilisés pour vérifier les appareils de mesure d’alcool. La concentration d’éthanol dans l’haleine synthétique – un mélange d’éthanol, d’eau, de dioxyde de carbone et d’azote – est mesurée beaucoup plus précisément qu’avec les méthodes précédentes. Différentes méthodes de production de gaz de référence sont utilisées dans le monde entier. Cependant, ces méthodes donnent des résultats différents : c’est une solution insatisfaisante, car une différence de quelques pour cent peut avoir un grand effet lors de l’étalonnage des instruments de mesure de l’alcool. Afin de garantir des résultats de mesure uniformes et comparables, une méthode de référence définie avec précision est prescrite en Suisse dans laquelle un gaz d’étalonnage est produit par saturation avec un mélange alcool-eau. « Grâce au laser à cascade quantique, ces gaz de référence peuvent désormais être comparés avec précision et fiabilité », explique Emmenegger. Il s’agit là d’une tâche importante, car il est également essentiel pour les fabricants d’instruments de savoir quels mélanges de gaz de référence sont comparés. Cela peut conduire à une situation dans laquelle l’instrument avec le même ajustement remplit les exigences dans un pays mais pas dans un autre, simplement parce que le pays en question se calibre en utilisant une méthode différente. Une mesure fiable avec le laser à cascade quantique peut aider à normaliser les systèmes de référence afin que les exigences puissent être satisfaites de la même manière dans différents pays. Cependant, Emmenegger et son équipe pensent déjà à l’avenir car la méthode de mesure précise de différentes molécules organiques de tailles variées offre un large éventail d’autres applications. Grâce au projet commun avec METAS, les chercheurs ont pu développer une approche qui permet de nombreuses autres applications, comme l’analyse médicale de l’air respirable ou la surveillance environnementale. Article rédigé par Georges Simmonds pour RT Flash Chemeurope | | | |
| Comme toujours, le rapport annuel de l'Irena, l’Agence internationale pour les énergies renouvelables (IRENA), est une vraie mine d'informations. Ce rapport nous apprend que 171 gigawatts (GW) de capacités nouvelles en ER ont été installés en 2018, soit une croissance de 7,9 %, dont l’essentiel (84 %) résulte de la mise en place de nouvelles installations solaires et éoliennes. À l’échelon mondial, le tiers de la capacité de production énergétique fait aujourd’hui appel à des sources d’énergie renouvelables. En 2018, 61 % de toutes les nouvelles installations énergétiques renouvelables ont ainsi vu le jour en Asie, qui affiche une croissance de 11,4 %, mais c’est en Océanie que la croissance a été la plus rapide (17,7 %). Avec ses 8,4 % de croissance, l’Afrique se place en troisième place, juste après l’Asie. Quasiment les deux tiers de toutes les nouvelles capacités de production énergétique ayant vu le jour en 2018 sont liés aux énergies renouvelables. Les économies émergentes et les économies en développement sont en tête de ce déploiement. « C’est grâce à leurs avantages compétitifs indéniables que les énergies renouvelables ont conquis la première place parmi les technologies utilisées pour créer de nouvelles capacités de production énergétique », a indiqué Adnan Z. Amin, Directeur général de l’IRENA. « La forte croissance enregistrée en 2018 se situe dans la prolongation d’une tendance constatée au cours des cinq années précédentes ; elle reflète la transition en cours vers les énergies renouvelables, qui sont aujourd’hui le moteur de la transformation énergétique mondiale. »« Il faut toutefois que le déploiement des énergies renouvelables accélère davantage si nous voulons atteindre les objectifs climatiques mondiaux et les Objectifs de développement durable », a poursuivi M. Amin. « Les pays qui tireront pleinement parti de leur potentiel en matière d’énergies renouvelables ne feront pas que décarboner leur économie : ils en tireront toutes sortes d’autres avantages socio-économiques. » L’analyse menée par l’IRENA met en regard la croissance de la capacité de production énergétique de sources renouvelables et non renouvelables (issue essentiellement de combustibles fossiles ou nucléaires). En Europe, en Amérique du Nord et en Océanie, les capacités de production non renouvelables ont perdu 85 GW environ depuis 2010. Elles ont en revanche grandi en Asie et au Moyen Orient pendant la même période. Depuis l’an 2000, les capacités de production d’énergie de source non renouvelable ont crû d’environ 115 GW par an en moyenne, sans qu’il soit possible de discerner une tendance à l’accélération ou non. Dans le détail, le rapport de l'Irena précise que la croissance de l’hydroélectricité a continué à ralentir en 2018, la Chine étant seule à montrer une croissance significative (+8,5 GW). Les capacités de production éolienne ont augmenté de 49 GW en 2018. Avec 20 et 7 GW respectivement, la Chine et les États-Unis d’Amérique sont toujours les principaux moteurs de croissance. Les autres pays montrant une croissance supérieure à 1 GW sont l’Allemagne, le Brésil, la France, l’Inde et le Royaume-Uni. Parmi l'ensemble des énergies propres, ce sont les capacités de production solaire qui ont le plus augmenté : 94 GW l’année dernière, soit une croissance de 24 %. L’Asie se taille toujours la part du lion avec 64 GW, soit 70 % de la croissance mondiale. Les pays montrant une croissance notable sont les États-Unis d’Amérique (+8,4 GW), l’Australie (+3,8 GW) et l’Allemagne (+3,6 GW). Parmi les autres pays, il faut citer le Brésil, l’Egypte, le Pakistan, le Mexique, la Turquie et les Pays-Bas. La croissance des capacités de production de bioénergie a été relativement modeste ; elle a eu lieu pour moitié dans trois pays : la Chine (+2 GW), l’Inde (+700 MW) et le Royaume-Uni (+900 MW). A l’échelle mondiale, les capacités de production énergétique de sources renouvelables ont atteint 2 351 GW à la fin de l’année dernière, soit environ un tiers de la capacité installée. Avec ses 1'172 GW, l’hydroélectricité en pèse environ la moitié, le reste se partageant pour l'essentiel entre énergies éolienne (564 GW) et solaire (480 GW). Les autres sources d’énergie renouvelable sont la bioénergie (121 GW), l’énergie géothermique (13 GW) et l’énergie tirée des vagues et des marées des océans (500 MW). Article rédigé par Georges Simmonds pour RT Flash Irena | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Les scientifiques estimaient jusqu'alors que le niveau actuel de dioxyde de carbone, un peu supérieur à 400 parties par million (ppm), n'était pas plus important que celui qui prévalait il y a 800.000 ans, lors d'une période marquée par des cycles de réchauffement et de refroidissement de la Terre qui se poursuivraient aujourd'hui sans le réchauffement lié aux activités humaines. Mais des carottes de glace et de sédiments marins prélevés à l'endroit le plus froid de la planète révèlent désormais que la barre des 400 ppm a en fait été dépassée pour la dernière fois il y a 3 millions d'années, pendant le Pliocène. Les températures étaient alors 3 à 4°C plus élevées, des arbres poussaient en Antarctique et le niveau des océans était 15 mètres plus haut. Ces analyses sont corroborées par un nouveau modèle climatique développé par le Potsdam Institute for Climate Impact Research (PIK). « La fin du Pliocène est relativement proche de nous en terme de niveaux de CO2 », explique à l'AFP Matteo Willeit, chercheur au PIK et principal auteur d'une étude publiée récemment. « Nos modèles suggèrent qu'au Pliocène il n'y avait ni cycle glaciaire ni grosses calottes glaciaires dans l'hémisphère nord. Le CO2 était trop élevé et le climat trop chaud pour le permettre ». L'accord de Paris sur le climat de 2015 vise à limiter le réchauffement de la planète à +2°C, voire +1,5°C, par rapport à l'ère pré-industrielle. Mais en 2017, les émissions de gaz à effet de serre ont dépassé tous les records dans l'histoire humaine, et les engagements des États signataires de l'Accord de Paris conduiraient le monde vers +3°C. Aujourd'hui, avec 1°C de plus qu'à l'époque pré-industrielle, la Terre subit déjà les impacts du dérèglement climatique, des inondations aux sécheresses. Pour Siegert, avoir dépassé 400 ppm de CO2 n'implique pas une hausse du niveau des mers de l'ampleur de celle du Pliocène de façon imminente, mais à moins que l'Homme n'arrive à retirer le CO2 de l'atmosphère à grande échelle, des impacts majeurs sont inévitables, tôt ou tard. En se basant sur les concentrations de CO2, les glaciologues prédisent une augmentation du niveau des océans entre 50 cm et un mètre d'ici la fin de ce siècle, indique le chercheur. Les émissions liées à l'activité humaine ont fait grimper les niveaux de CO2 de plus de 40 % en un siècle et demi. Avec une concentration à 412 ppm, et en progression, certains experts estiment qu'un réchauffement de la planète de 3 à 4°C est probablement inéluctable. Article rédigé par Georges Simmonds pour RT Flash PICIR | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les cellules, qu’elles se trouvent dans le corps ou dans des tissus développés en laboratoire, interagissent constamment avec la matrice extracellulaire (MEC), un réseau moléculaire extrêmement complexe qui fournit un support structurel aux cellules. Jusqu’à récemment, les scientifiques avaient supposé que ces interactions étaient principalement biochimiques. Mais les chercheurs ont maintenant compris que des interactions mécaniques, comme, par exemple, la capacité des cellules à détecter diverses propriétés de la MEC et à y réagir, jouent également un rôle important dans le développement et le fonctionnement des cellules. L’un des défis scientifiques de la production de tissus biologiques artificiels destinés à la transplantation est qu’ils doivent contenir un réseau de vaisseaux sanguins pour assurer un apport constant en oxygène et en nutriments aux tissus. L’ordre directionnel de ce réseau est essentiel à l’intégration et à la survie de l’implant. En d’autres termes, les vaisseaux sanguins doivent s’organiser dans le même sens. Dans le laboratoire du Professeur Levenberg, au Technion, une plate-forme conçue pour améliorer la production de tissus et l’auto-organisation pour la transplantation des tissus a été développée. Cette technologie repose sur des échafaudages polymériques tridimensionnels. Des cellules biologiques essentielles au développement des vaisseaux sanguins sont développées sur ces échafaudages de polymères, ce qui a permis à l’équipe de constater que les forces mécaniques avaient une forte influence sur les propriétés de ces réseaux de vaisseaux sanguins, et en particulier le rôle joué par les directions dans lesquelles ils se développaient. En 2016, le Professeur Levenberg et le Docteur Rosenfeld, alors doctorante dans son laboratoire, ont montré comment un système d’étirement original, qui appliquait des forces de traction au tissu artificiel, affectait les processus biologiques dans les cellules, notamment la différenciation, la forme, la migration, et l’organisation dans les structures, ainsi que la géométrie du tissu émergent, sa maturité et sa stabilité. Cette étude antérieure a également montré que les forces de traction agissant sur le tissu au cours du développement favorisent la croissance des vaisseaux sanguins avec un ordre directionnel bien défini. La nouvelle étude, menée par les groupes du Professeur Levenberg (Technion) et du Professeur Eran Bouchbinder (Institut Weizmann), a permis la mise en place d’un protocole permettant de générer de manière contrôlée des tissus synthétiques optimaux, présentant notamment des réseaux riches et stables dans lesquels les vaisseaux sanguins ont un ordre directionnel bien défini. Les chercheurs pensent que ces résultats contribueront à améliorer la possibilité de concevoir des tissus permettant une transplantation réussie chez le patient. Article rédigé par Georges Simmonds pour RT Flash France Diplomatie | | | |
| Un chercheur breton a fait une découverte qui pourrait révolutionner la greffe d'organes. Il a identifié un ver marin capable de prolonger la durée de vie des organes destinés à la greffe, grâce à son exceptionnel métabolisme de l'hémoglobine qui transporte quarante fois plus d'oxygène que le sang humain. Depuis douze ans, Franck Zal, chercheur en biologie marine, s'interroge sur les propriétés étonnantes de ce ver marin, dont les origines remontent à plus de 400 millions d'années. "Ce ver arrête de respirer quand il est à marée basse, quand il est sur la plage. Il peut s'arrêter de respirer pendant six heures. Il vit juste avec l'oxygène qu'il a fixé sur ses molécules d'hémoglobine qui lui permettent d'attendre la prochaine marée haute", explique Franck Zal, docteur en biologie marine. Mais quel est le secret de ce champion en apnée ? Pour percer ce mystère, Franck Zal a cherché dans son sang ou plutôt dans son hémoglobine, chargée de transporter l'oxygène. Il y a découvert des molécules 200 fois plus petites que celles de l'homme. Et surtout elles sont capables de fixer 40 fois plus d'oxygène. C'est cette énorme réserve qui permet au ver de respirer à marée basse. De quoi s'interroger sur la capacité de ces molécules à oxygéner des organes humains, comme des greffons par exemple. Dans son laboratoire, le chercheur a testé sa découverte sur des tissus de poumons : "On a montré qu'un poumon que l'on peut conserver pendant six heures, on est capable de le garder pendant plus de 48 heures sans aucun dommage. On a une collaboration notamment avec une équipe de Toronto au Canada où ils vont aller jusqu'à 7 jours", précise Franck Zal. Ce produit pourrait donc bien révolutionner la greffe d'organes, notamment la période durant laquelle le greffon est acheminé vers le receveur. Des heures durant lesquelles l'organe souffre du manque d'oxygène. A l'hôpital de Brest, un néphrologue a voulu en avoir le coeur net. En 2017, il entame un essai clinique sur soixante patients. La moitié a reçu un rein conservé dans des conditions classiques, l'autre un rein qui a trempé dans l'hémoglobine du ver marin. Non seulement le produit a bien été toléré mais surtout il s'est avéré très efficace comme l'explique le Professeur Yannick Le Meur : "Les greffons qui ont reçu la molécule fonctionnent plus rapidement, redémarrent plus vite en quelque sorte, ils ont moins besoin de séances de dialyse après la greffe, et ils ont des fonctions rénales qui sont meilleures. On a donc pour la première fois une molécule qui pourrait agir sur cette période et donc bien sûr, cela est fondamental". A présent, Franck Zal veut passer à la vitesse supérieure : à Noirmoutier, il a créé une ferme marine qui pourra produire dans des bassins près de 30 tonnes de vers par an. Car d'autres applications sont en projet comme des pansements cicatrisants ou de la poudre lyophilisée d'hémoglobine. Article rédigé par Georges Simmonds pour RT Flash France Info | | | |
| Ces dernières années, plusieurs études ont mis en évidence le potentiel anticancéreux du disulfiram, une molécule utilisée dans le traitement contre l’alcoolisme. Sans pouvoir l’expliquer, jusqu’il y a peu. L’équipe de Raphaël Frédérick, chercheur au Louvain Drug Research Institute de l’UCLouvain, en collaboration avec les équipes des professeurs Olivier Feron (Institut de recherche expérimentale et clinique de l’UCLouvain) et Johan Wouters (UNamur), a découvert un mécanisme qui explique pourquoi le disulfiram prévient aussi le développement du cancer. Pour que les cellules se multiplient, il leur faut des protéines. Ces grosses molécules présentes dans toutes les cellules vivantes sont constituées d’une suite d’acides aminés qui leur est propre. Dans le cas des cellules cancéreuses, leur prolifération nécessite la présence d’un acide aminé en particulier : la sérine. Les chercheurs se sont intéressés à une enzyme (une protéine qui permet une réaction chimique déterminée), la phosphoglycérate déshydrogénase (PHGDH). Pourquoi ? Parce que la PHGDH intervient dans la production de la sérine et donc indirectement dans la prolifération des cellules cancéreuses. Ils ont passé au crible plusieurs centaines de molécules. Résultat de la recherche : c’est le disulfiram qui bloque le plus efficacement la PHGDH. Conséquence : le disulfiram stoppe la production de sérine. Et les cellules tumorales cessent de se multiplier. Un autre effet antitumoral du disulfiram avait été découvert en 2017 : cet effet est dépendant de la présence de cuivre qui permet de l’activer. Le disulfiram activé inhibe alors un processus de dégradation des protéines, nécessaire au métabolisme des cellules tumorales, prévenant leur prolifération. Quelles perspectives dans la lutte contre le cancer ? La compréhension du mode d’action du disulfiram sur l’arrêt de la prolifération des cellules cancéreuses va permettre de s’en inspirer. D’autant que le disulfiram fait actuellement l’objet de diverses études cliniques, qui vont accélérer la compréhension de son mode d’action chez l’humain. Avec pour objectif la création de nouveaux médicaments spécifiquement dédiés au traitement du cancer. Article rédigé par Georges Simmonds pour RT Flash UCL | | | |
| Des chercheurs de l’Université d’Augusta (Géorgie) ont montré comment, grâce à l’œstrogène, les neurones restent en communication dans le cerveau et en particulier dans les zones vouées à la mémoire. Ce rôle clé de l’œstrogène dans la plasticité synaptique ouvre de nouvelles voies et cibles à explorer, pour réduire le déclin cognitif. Les neurones chez les hommes et les femmes produisent de l'œstrogène mais, lorsque ce n’est pas le cas, leur cerveau présente des épines dendritiques et des synapses beaucoup moins denses. Or ces points de communication clés pour les neurones, situés dans la plus grande partie du cerveau, interviennent dans la consolidation de la mémoire. L’auteur principal, le Docteur Darrell Brann, directeur du département de neuroscience et de médecine régénérative du Medical College of Georgia de l'Université Augusta explique : « Nous pensons que cela montre le rôle clair des œstrogènes dans la plasticité synaptique, dans la façon dont les neurones communiquent et dans la formation de la mémoire ». Chez des souris dont les neurones ne fabriquent plus d’œstrogènes, les scientifiques constatent en effet une mémoire spatiale, de reconnaissance et « de peur contextuelle » altérées. Cependant, lorsque les scientifiques restaurent les niveaux d'œstrogène dans le cerveau, ces fonctions reviennent à la normale. On sait que l'aromatase, l'enzyme qui convertit la testostérone en œstrogènes, est fabriquée dans l'hippocampe et le cortex cérébral de toute une variété d'espèces, dont les humains. On sait aussi qu’il y a, chez ces espèces dont l’Homme, déficit de mémoire lorsque l'aromatase est bloquée. En particulier, les patientes prenant un inhibiteur de l’aromatase pour le traitement d’un cancer du sein dépendant aux œstrogènes signalent fréquemment des troubles de l a mémoire. Ici, lorsque les chercheurs « suppriment » l'aromatase des neurones excitateurs dans les zones du cerveau impliquées dans la mémoire, la mémoire des animaux est fortement réduite. Chez ces souris privées d’aromatase, les scientifiques observent, en plus du déficit de mémoire, un comportement de type dépression et anxiété. Les œstrogènes dérivés des neurones seraient ainsi un « nouveau » neuromodulateur, un messager essentiel sur lequel un neurone s'appuie pour communiquer avec les autres, ce qui est essentiel pour des fonctions clés telles que la cognition mais aussi l’humeur. Il reste de nombreuses voies à explorer pour mieux cerner ce processus naturel entre l’œstrogène et l’aromatase cérébrale, cependant l’idée serait de pouvoir augmenter la production d’aromatase et d’œstrogènes dans le cerveau dans certains cas de déficit cognitif. Article rédigé par Georges Simmonds pour RT Flash JNeurosci | | | |
| La mise sur le marché d’un médicament est un processus long et fastidieux. Avant de réaliser des tests cliniques (les molécules doivent passer plusieurs pare-feu afin de définir leur efficacité) l’entreprise marseillaise Biocellvia fait partie de ces étapes de contrôle. "Pour savoir si un médicament va marcher ou non, l’industrie pharmaceutique se basait sur une évaluation visuelle subjective et très longue", détaille Olivier Julé, cofondateur de cette start-up avec son père, Yvon, professeur des universités en biologie et directeur scientifique de la société. Cette analyse réalisée par l’homme n’était pas assez fiable. "L’industrie continue de travailler sur des médicaments qui ne marchent pas, 30 % des échecs en phase clinique sont dus à une molécule inefficace. C’est ce défaut d’évaluation que l’on tente de supprimer dans nos locaux, afin que les médicaments testés soient issus d’une molécule fiable", souligne le spécialiste. Pour observer les cellules efficaces, les 6 salariés de Biocellvia peuvent compter sur un algorithme informatique qui traite les images d’organes envoyées par les laboratoires pharmaceutiques. Ce processus automatisé va permettre d’analyser l’efficacité d’une molécule sur des populations différentes en 48h contre 6 semaines pour l'Homme. Vient ensuite le temps de l’observation, une étape importante qui consiste à retranscrire les données observées avant de faire un compte-rendu à la société concernée. "La plupart de nos collaborateurs sont américains ou allemands, mais nous travaillons aussi avec l’hôpital Gustave Roussy à Paris. Dans le milieu de la science, votre crédibilité est liée au nombre de publications que vous sortez et aux partenaires avec lesquels vous les signez. Nous voulons développer une autre spécialité, avec la Nash par exemple". Pour traiter de la fiabilité d’une molécule, l’entreprise se base sur les caractéristiques de cette dernière. "Pour la fibrose du poumon, on se base sur les caractéristiques connues de la maladie. Dans ce cas, on sait qu’on doit quantifier le collagène et la fibrose, notre travail est de partir de ces points de départ afin de constituer notre algorithme. Ce dernier va ensuite analyser l’impact de la molécule sur les organes. Le but, c’est d’accélérer le processus de conception d’un médicament en réduisant le taux d’échec." Pour les patients, l’annonce de la découverte d’une nouvelle molécule est toujours portée par un vent d’espoir, cependant toutes n'ont pas la chance de passer la phase des tests cliniques. "Les molécules sont parfois toxiques, elles peuvent avoir des effets secondaires très graves. 95 % des molécules testées ne sont pas commercialisées". Membre d’Eurobiomed, Biocellvia a fait de la R&D l’une de ses grandes priorités. La start-up a finalisé et breveté deux premiers tests : le premier dans la fibrose pulmonaire, le second concerne le BPCO (Broncho Pneumopathie Chronique Obstructive), une pathologie de l’appareil respiratoire essentiellement provoquée par le tabac et la pollution. "Nous déposons un brevet par pathologie et, jusqu’à maintenant, nous en avons développé deux en trois ans. Cette année, nous voulons en développer 4, tout comme l’année prochaine, et l’objectif est d’arriver à court terme à une dizaine de brevets par an", explique le président de Biocellvia. "Nous venons de commencer à élaborer un test sur le cancer du poumon, grâce au soutien de la région Paca et de la BPI. Un deuxième test actuellement développé concerne le Nash, la maladie du "foie gras", qui touche plus de 20 % des Américains et qui est en forte progression mondialement. Nous voulons également adapter notre modèle sur les maladies dégénérescentes telles qu’Alzheimer ou Parkinson", confie-t-il. Article rédigé par Georges Simmonds pour RT Flash La Provence | | | |
| Il y a quelques semaines, une étude remarquée, effectuée par des chercheurs du Sanford Burnham Prebys Medical Discovery Institute (La Jolla) avait montré que des mouches des fruits soumises à un régime riche en graisses vont léguer à deux générations successives les risques cardiaques associés à ce facteur alimentaire (voir article RT Flash). Ces résultats viennent d'être confortés par une nouvelle étude américaine réalisée par l'Ecole de Médecine de l'Université Washington de St Louis (Missouri), qui montre que les excès de sucres et de graisses pourraient affecter jusque la santé de nos arrière-petits-enfants. L’expérience a été menée sur des souris, mais les scientifiques qui l'ont réalisée pensent que ses résultats sont applicables aux humains. D’après des expérimentations menées en laboratoire par des chercheurs américains, l'alimentation trop riche en sucres et en graisses de femelles rongeurs avant et pendant leur grossesse a des conséquences sur la santé cardiaque de leurs petits, et ce au moins jusqu’à la troisième génération même si celle-ci n’est pas en surpoids. Plus surprenant encore, cette étude suggère que les modifications cardiaques de la progéniture induites par l’alimentation ne sont pas uniquement transmises par la mère. Les descendants mâles de mères obèses ont également transmis les mêmes problèmes cardiaques à leurs petits, malgré leur accouplement avec une femelle en bonne santé et disposant d’une alimentation normale. « Nous savions que l’obésité pendant la grossesse augmentait les risques cardiaques de leur descendance mais nous avons maintenant la preuve, au moins pour les souris, que ces problèmes cardiaques ne se contentent pas de toucher une génération », souligne la co-auteure de l’étude, Kelle H. Molley. « Ils sont transmis par les mâles et les femelles descendant de ces mères obèses, même si cette progéniture se nourrit normalement. Parmi les anomalies cardiaques relevées, les scientifiques ont noté la baisse d’efficacité des mitochondries, ces éléments principalement chargés de fournir de l’énergie aux cellules. Les cœurs de la plupart des descendants d’une mère obèse présentaient également un ventricule gauche plus lourd. Or chez l’homme, précise le commu niqué, « l’augmentation du poids du ventricule gauche est souvent le signe d’une mauvaise qualité du muscle cardiaque qui prédispose à l’insuffisance cardiaque, une maladie potentiellement mortelle dans laquelle le cœur ne pompe pas le sang aussi bien qu’il le devrait ». Des différences entre le cœur des femelles et des mâles ont également été observées, sans qu’elles ne puissent pour l’heure être expliquées. « L’une des grandes questions est : "que puis-je faire si ma grand-mère ou arrière-grand-mère était obèse ?" », souligne l’auteur principal de l’étude, Jeremie L.A. Ferey. « D’autres études sont nécessaires pour savoir s’il est possible de réparer ces dommages faits aux mitochondries, mais en général, de l’exercice et un régime sain sont toujours importants pour la santé cardiaque ». Article rédigé par Georges Simmonds pour RT Flash WUSMSL | | | |
| Les lymphocytes T modifiés génétiquement pour lutter contre les cellules cancéreuses, ou CAR-T cells, ont jusqu'ici été principalement évalués dans les cancers hématologiques (lymphome diffus à grandes cellules B et lymphome médiastinal primitif à grandes cellules B). Selon des premiers résultats de phase 1, présentés lors du congrès de l'Association américaine de recherche sur le cancer (AACR), cette approche thérapeutique aurait aussi un intérêt contre certaines tumeurs solides, à commencer par les sarcomes HER2 positif. L'équipe du Professeur Shoba Navai a expérimenté, sur 10 patients âgés de 4 à 54 ans, des CAR-T cells mis au point dans le centre de thérapie génique et cellulaire rattaché à l'hôpital pour enfants du Texas, à Houston. Conçus avec le soutien financier de la fondation St-Baldrick contre le cancer et de l'AACR, ces CAR-T cells ciblent spécifiquement la glycoprotéine membranaire HER2. Sur les 10 patients sélectionnés, 5 souffraient d'un ostéosarcome, 3 souffraient d'un rhabdomyosarcome, et les 2 derniers souffraient d'un sarcome d'Ewing pour l'un et d'un sarcome synovial pour l'autre. Tous avaient connu plusieurs échecs. Certains ont même reçu auparavant jusqu'à 5 types de traitement. La prise en charge comportait une première phase de 1 à 3 injections de CAR-T cells après un traitement myéloablatif. En cas de prolifération des CAR-T cells suite à ces premières injections (ce fut le cas de 8 patients), 5 autres perfusions étaient réalisées. Dans l'ensemble, peu d'effets secondaires ont été observés, dont aucune infection consécutive à la myéloablation. La moitié des patients ont répondu au traitement, mais pas de façon homogène. Chez un patient mineur souffrant d'un ostéosarcome, une réponse complète dure toujours, 32 mois après la fin du traitement. Par ailleurs, le traitement était associé à une stabilisation durable de la pathologie chez 3 autres patients, tandis que la tumeur avait continué à progresser chez 5 autres patients. Des résultats encourageants, mais avec un suivi moins long (seulement 38 semaines), ont également été présentés par des médecins du centre de traitement et de recherche du Memorial Sloan Kettering, sur 21 patients atteints de tumeurs pleurales malignes (mésothéliome, métastase de cancer du poumon ou du sein). Couplées à une opération chirurgicale, les injections de CAR-T cells ont conduit à la rémission d'un des patients qui ne prend plus de traitement depuis 20 mois. Des CAR-T cells infiltrés dans la tumeur ont été observés chez 14 patients. Ces derniers ont alors bénéficié d'un traitement par anti-PD1 en dehors du protocole initialement prévu, afin de réactiver les CAR-T cells quiescents. Une réponse complète a été observée chez 2 patients supplémentaires à 32 et 60 semaines, de même qu'une réponse partielle chez 5 patients et une stabilisation tumorale chez 4 autres. Article rédigé par Georges Simmonds pour RT Flash Le Quotidien du Médecin | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|