| | Edito L’hydrogène s’affirme enfin comme la clef de voute de la transition énergétique mondiale
Depuis maintenant plus de 10 ans, l’hydrogène fait un peu figure d’Arlésienne, en matière de transition énergétique vers un monde sans émissions de CO2. On parle en effet beaucoup de ce gaz qui possède un remarquable pouvoir énergétique, trois fois supérieur à celui de l’essence à quantité comparable, et qui, en outre n’émet que de l’eau lorsqu’il est utilisé comme carburant. Mais l’utilisation massive de ce gaz (qui est l’élément le plus répandu dans l’Univers), ne va pas sans poser de nombreux problèmes. Bien qu’il existe à l’état naturel sans doute en plus grande quantité qu’on ne l’avait imaginé jusqu’à présent (mais ces sources naturelles d’hydrogène restent à identifier, à quantifier et à exploiter), il doit, pour l’instant, être produit de manière industrielle, par des procédés chimiques très gourmands en énergie et…très polluants, un comble pour ce gaz qui est censé faciliter la transition énergétique mondiale vers une réduction drastique des émissions anthropiques de CO2 qui, rappelons-le , doivent absolument être divisées par deux au niveau mondial d’ici 30 ans, si nous voulons avoir une chance, non pas de stopper le changement climatique en cours, mais plus modestement de le contenir dans des limites - 2 degrés - considérées comme supp ortables pour notre espèce.. Heureusement, depuis quelques mois, on assiste à une incontestable accélération à la fois technique, industrielle et politique, qui marque un véritable basculement vers une intégration de l’hydrogène, comme vecteur majeur de la révolution énergétique en cours. Le monde consomme actuellement environ 75 millions de tonnes d’hydrogène par an, mais cet hydrogène est presque entièrement produit par vaporeformage, une technique peu onéreuse mais très gourmande en énergie et très émettrice de CO2 (elle utilise à plus de 90 % des énergies fossiles), puisqu’on estime que cette production d’hydrogène émet environ 830 millions de tonnes de CO2 dans l'atmosphère, soit plus de 2 % des émissions mondiales de CO2 en 2019, un niveau comparable à celui des émissions totales de l’aviation, estimées à 900 millions de tonnes par an. Le cabinet de conseil McKinsey estime que la consommation d’hydrogène pourrait représenter jusqu’à 18 % de la demande en énergie finale dans le monde d’ici l’horizon 2050, contre 2 % aujourd’hui. Bank of America a estimé pour sa part, fin 2020, que l’hydrogène pourrait représenter le quart de la consommation mondiale d’énergie au milieu de ce siècle (Voir Mc Kinsey). Mc Kinsey souligne que l’hydrogène est appelé à devenir incontournable dans quatre domaines : l’intégration à grande échelle des énergies renouvelables, les transports propres, l’industrie décarbonée et enfin l’autonomie énergétique (chaleur et &eacut e;lectricité) des bâtiments et logements. Dans son rapport 2020, l’ADEME est en phase avec ces prévisions et estime que la production mondiale d’hydrogène pourrait être multipliée par huit et atteindre jusqu’à 578 millions de tonnes par an, en 2050 (Voir Ademe). En juillet 2020, l’Union européenne a dévoilé un ambitieux plan destiné à promouvoir l’utilisation de l’hydrogène en matière énergétique (Voir European Commission). L’Europe voudrait que l’hydrogène représente au moins 14 % de son mix énergétique en 2050, ce qui suppose de faire passer sa production annuelle de 10 à 100 millions de tonnes sur notre continent. Mais surtout, l’ensemble de cet hydrogène européen devra être totalement issu des énergies propres en 2050, ce qui représente un gigantesque défi. En effet, selon un rapport de l’AIE, intitulé « Le futur de l’hydrogène », (Voir IEA), si l’on voulait produire uniquement par électrolyse les 10 millions de tonnes d’hydrogène que l’Europe consomme chaque année, il faudrait consommer 3 600 TWH par an, c’est-à-dire plus que toute la consommation électrique annuelle (3 300 TWH en 2019). Autant dire que pour parvenir à multiplier par dix la production d’hydrogène vert en Europe, l’électricité d’origine renouvelable ne suffira pas, quels que soient les efforts en la matière et il faudra également des ruptures technologiques majeures en matière de rendement des électrolyseurs, ainsi qu’un recours bien pensé au nucléaire, une source d’énergie décarbonée qui présente un grand potentiel de production d’hydrogène. En Europe, deux grands projets d'hydrogène vert viennent de franchir des étapes importantes. Le gouvernement danois a approuvé le projet de construction de deux îles énergétiques qui produiront non seulement 4 GW d'électricité, mais aussi de l'hydrogène vert destiné aux secteurs de la navigation, de l'aviation, de l'industrie et du transport lourd. Par ailleurs, le géant allemand Thyssenkrupp a annoncé qu'il allait travailler avec la société énergétique allemande Steag sur une usine d'électrolyse de l'hydrogène de 500 MW destinée à alimenter la production d'acier. Dans le sillage du plan européen, la France a annoncé en septembre 2020 un vaste plan de développement de l’hydrogène, qui doit mobiliser 7,2 milliards d’ici 2030 et vise à la fois de permettre à assurer une production verte et compétitive d'hydrogène, et à diversifier les usages de ce vecteur énergétique, à la fois pour accélérer la montée en puissance des énergies renouvelables et de la mobilité lourde entièrement à base d’hydrogène (trains, camions, gros navires de commerce, paquebots).Comme au niveau européen la priorité de ce plan - et son premier volet - consiste à accélérer la décarbonation de l'hydrogène : il est prévu qu’un milliard et demi d’euros soit consacré à la fabrication d’électrolyseurs de nouvelle gén& eacute;ration, pour une capacité de 6,5 gigawatts dans un premier temps. Les grands industriels européens sont bien conscients du défi à relever et, forts de ces soutiens européens et nationaux, ils se sont regroupés dans le collectif Hydeal Ambition, qui s’est fixé comme objectif de produire d’ici dix ans de l’hydrogène vert au même coût que l’hydrogène gris, soit 1,5 euro le kilo, pour le rendre compétitif avec les énergies fossiles. Au début de cette année, Siemens Gamesa a annoncé un partenariat avec Siemens Energy pour développer une nouvelle génération d’aérogénérateur géant, intégrant un électrolyseur directement dans la turbine – à la base du mât d’une éolienne offshore – afin de transformer l’énergie produite directement en hydrogène. Un modèle de démonstration sera dans un premier temps intégré à la nouvelle éolienne géante Siemens Gamesa, dotée d’une puissance-record de 14 mégawatts, grâce à son envergure de 222 mètres. Grâce à ce système associant un aérogénérateur et un électrolyseur, il sera possible de convertir et de stocker sur place, sous forme d’hydrogène, les surplus d’électricité , puis de retransformer cet hydrogène en énergie, pour faire face aux pics de demande ou à une chute de la production éolienne. De son côté, le groupe français McPhy mise sur l’amélioration de l'électrolyse alcaline pour faire réduire drastiquement le coût de production de l'hydrogène vert et amener cette technologie à l'échelle industrielle. En juin 2020, Mc Phy a inauguré son électrolyseur de 2 mégawatts (MW) dans l'usine de production d'hydrogène zéro-carbone d’Apex Energy, à Laage, en Allemagne. Alimenté à partir d'électricité d'origine renouvelable, l'électrolyseur de 2 MW installé à Laage permettra déjà à Apex Energy de produire 300 tonnes d'hydrogène par an sans émission de CO2, qui serviront à fournir électricité et chaleur au siège social de l'entreprise et à une zone commerciale. Mais à terme, Mc Phy vise la production compétitive à très grande échelle d’hydrogène zéro-carbone, ce qui suppose de concevoir et de construire des électrolyseurs géants fiables de 100 MW, un vrai défi technologique. Pour atteindre son objectif, McPhy compte s'appuyer sur la technologie la plus répandue dans l'industrie et qu'il utilise déjà : l’électrolyse alcaline. Cette technologie est certes moins innovante que sa concurrente, l’électrolyse à membrane échangeuse de protons (Proton Exchange Membrane, ou PEM) qui utilise un électrolyte solide. Mais, contrairement à la technologie PEM, l’électrolyse alcaline est parfaitement maîtrisée. En retravaillant sur la conception de ses électrolyseurs, et en parvenant à doubler la densité énergétique des électrodes, Mc Phy est à présent capable de fabriquer des électrolyseurs de grande puissance dont la compacité n’est que de 10 % supérieure à celle de leurs concurrents utilisant la technologie PEM. Mais surtout, le groupe français fait valoir que son procédé alcalin possède deux atouts décisifs : une efficacité énergétique meilleure que celle des PEM et la fiabilité dans le temps deux fois plus grande, qui autorise des durées d’exploitation de 20 ans. Partout dans le monde, les recherches se poursuivent pour mettre au point des électrolyseurs et des procédés permettant de produire un hydrogène totalement vert à moindre coût, et fin 2019 deux percées notables ont été accomplies dans ce domaine. La première a été réalisée en Australie, par des chercheurs de l’Université de Nouvelles Galles du sud (Voir UNSW). Ces scientifiques ont montré que la capture de l'hydrogène par électrolyse, qui sépare cet élément de l'oxygène dans l'eau, peut être obtenue en utilisant comme catalyseurs des métaux à faible coût comme le fer et le nickel, qui accélèrent cette réaction chimique tout en n&e acute;cessitant moins d'énergie. Ils ont réussi à recouvrir les électrodes de leur catalyseur de fer et de nickel déposés à l'échelle nanométrique. Or, à ce niveau atomique, ces métaux changent de propriétés et deviennent aussi efficaces que les catalyseurs actuels au platine, au ruthénium ou à l'iridium pour la génération d'hydrogène. Mais la différence, c‘est que le prix du fer et du nickel est, en moyenne, 2000 fois moins élevé au kg que celui de ces métaux rares extrêmement onéreux. Toujours fin 2019, des chercheurs du SLAC National Accelerator Laboratory (États-Unis) ont montré qu’il était possible de remplacer ces catalyseurs très onéreux par un catalyseur bon marché, le phosphure de cobalt, à condition de le déposer sous forme de nanostructure sur les électrodes en carbone de l’électrolyseur. Ces recherches récentes ouvrent donc, elles aussi, la voie vers la production industrielle fiable et peu coûteuse d’hydrogène vert à l’horizon 2025. Toujours au Etats-Unis, Breakthrough Energy Ventures (BEV), un des fonds d’investissement de Bill Gates, vient de réunir 18,5 millions d’euros pour financer le développement d’une nouvelle technologie de production d’hydrogène vert, le séparateur d’eau. Mise au point par la société israélienne H2Pro, elle devrait permettre de fabriquer de l’hydrogène vert à moins d’un euro par kilogramme. H2Pro affirme avoir mis au point une technologie de rupture pour séparation de l'eau. Selon cette société, son procédé aurait une efficacité de 95 % et son coût de production de l’hydrogène serait bien inférieur à celui des électrolyseurs couramment utilisés. Concrètement, l’'E-TAC - Ectrochemical, Thermally Activated Chemical - utilise, comme l'électrolyse, l'électricité pour séparer l'eau en hydrogène et en oxygène. Mais l’originalité de cette technique réside dans le fait que l'hydrogène et l'oxygène sont générés séparément dans des étapes différentes - une étape électrochimique (E) et une étape chimique activée thermiquement (TAC). C’est ce découplage de la séparation de l'hydrogène et de l'oxygène en deux processus distincts qui réduirait sensiblement le coût de production de l’hydrogène, car il rend inutile le recours aux membranes, indispensables au fonctionnement des électrolyseurs actuels. Une autre avancée importante a été annoncée il y a peu par des chercheurs de l’Université de Linköping, en Suède (Voir li.u). Ces scientifiques, dirigés par le Professeur Jianwu, ont pu concevoir un nouveau matériau, à base de carbure de silicium nanocubique, qui possède de remarquables propriétés optiques et physico-chimiques, et peut produire, avec un rendement inégalé jusqu’à présent, de l’hydrogène par photoélectrolyse. Tout le secret de cette efficacité énergétique résiderait, selon les chercheurs, dans la structure poreuse particulière de ce matériau, qui favorise la séparation des charges avec une énergie suffisamment élevée et autor ise une surface active accrue qui accélère le transfert de charge et augmente la surface de réaction chimique. Parallèlement aux avancées technologiques en matière de production d’hydrogène vert par électrolyseurs, une autre voie d’avenir réside dans l’adaptation des centrales nucléaires à la fabrication massive d’hydrogène. Outre-Atlantique, trois producteurs d’électricité et le Idaho National Laboratory se sont lancés en 2019 dans cette reconfiguration des centrales nucléaires afin de fabriquer de l’hydrogène par électrolyse, sans aucune émission de CO2. L’idée est d’utiliser la production électronucléaire excédentaire pour produire de grandes quantités d’hydrogène qui pourra ensuite être utilisé, soit comme carburant pour les transports propres, soit comme vecteur de stockage de l’électricité et d’équilibrage du réseau, pour faire face, par exemple, à un pic de demande. En France, le CEA travaille à la conception de petits réacteurs nucléaires modulaires de 150 MW, expressément conçus pour la production d’hydrogène par électrolyse. Il a aussi développé un électrolyseur réversible à haute température : cette machine présente la particularité d’être alimentée à la fois par de la vapeur d’eau et de l’électricité. Ce système est capable de fabriquer de l’hydrogène par électrolyse, mais également de produire de l’électricité, sur le mode d’une pile à combustible à l’hydrogène. « La réaction se produit à 700-800°C, mais une fois qu’elle est lancée, on peut l’alimenter avec de la vapeur d’eau à 150°C », préc ise Hélène Burlet, directrice adjointe des programmes énergie du CEA. Mais il ne suffit pas de savoir produire de l’hydrogène vert en grande quantité ; encore faut-il pouvoir stocker, transporter et utiliser ce gaz très volatile et hautement inflammable – Personne n’a oublié la terrible catastrophe du Zeppelin Hindenburg en 1937 à New-York – en toute sécurité. Il y a quelques semaines, début février, des chercheurs de l'Institut Fraunhofer pour les technologies de fabrication et les matériaux avancés, à Dresde (Allemagne), ont développé une pâte à base stable et ininflammable d’hydrures de magnésium pour le stockage de l'hydrogène. Elle pourrait, à terme, remplacer les réservoirs et alimenter les véhicules à pile à combustible. Le procédé mis au point par ces chercheurs simplifie de manière décisive le processus de ravitaillement : avec ce substrat, le conducteur du véhicule à pile à combustible n’a plus besoin d’aller faire le « plein », dans une station-service-hydrogène ; il réalise lui-même l’opération. Il remplit un réservoir avec une quantité précise d'eau du robinet et y ajoute la pâte énergétique (les quantités sont fonction de la puissance désirée). Le mélange produit alors de l'hydrogène gazeux, qui peut ensuite être converti en électricité pour le moteur électrique. Gros avantage, seule la moitié de l'hydrogène provient de la pâte de puissance, l'autre moitié venant de l'eau. Comme le souligne Marcus Vogt, un scientifique du Fraunhofer, « la densité de stockage de l'énergie est donc énorme : elle est bien plus élevée que celle d'un réservoir sous pression de 700 bars. Par rapport aux batteries, elle a même une densité de stockage d'énergie dix fois supérieure ». Autre avantage décisif : cette pate peut être stockée et distribuée facilement et de manière sûre dans une station-service classique, sans qu’il soit besoin d’installer des infrastructures coûteuses de refroidissement. Soulignons également que la plus grande usine mondiale de stockage de l’hydrogène vert dans un liquide organique sera construite en Allemagne, à Dormagen, d’ici 2023. C’est l’entreprise allemande Hydrogenious LOHC Technologies qui pilote ce projet basé sur une solution de stockage innovante de l’hydrogène. Cette technologie utilise un liquide huileux à base de dibenzyltoluène, qui présente l’avantage d’une grande stabilité thermique. Piégé dans ce liquide, l’hydrogène peut être transporté sans problème, comme n’importe quel carburant classique. Pour être utilisé, l'hydrogène est retransformé à l'état gazeux par une réaction catalytique endothermique de déshydrogénation. Dès sa mise en service, cette usine produira de l’hydrogène vert qui sera acheminé depuis Dormagen jusqu’à Rotterdam aux Pays-Bas, pour répondre aux besoins de mobilité lourde et d’énergie industrielle. Dans un premier temps, 1.800 tonnes d’hydrogène pourront être stockées par an dans ce mélange organique. En France, l’industriel, Mc Phy Energy, en reprenant des travaux du CNRS (Institut Néel), a développé depuis 10 ans une remarquable solution de stockage de l'hydrogène sous forme d'hydrures métalliques, c'est-à-dire de composés chimiques d'hydrogène avec un métal. La solution mis au point par Mc Phy repose sous la forme de pastilles d’hydrure de magnésium (MgH2) qui peuvent contenir en masse 7 % d’hydrogène. Ce matériau fonctionne un peu à la manière d’une éponge : il peut délivrer ou absorber l’hydrogène à la demande. En fonction de la température choisie, si la pression d’équilibre est dépassée, le métal absorbe l’hydrogène ; dans le cas contraire, ce matériau va libérer de l’hydrogène emprisonné. Outre son excellent re ndement énergétique ; cette technologie permet une capacité volumique de stockage 2,5 fois supérieure au stockage gazeux sous pression. Il faut enfin évoquer les recherches de l’Institut Français du Pétrole énergies nouvelles (IFPen) basé à Solaize dans la vallée lyonnaise de la chimie, qui travaille sur une utilisation de l’hydrogène plutôt iconoclaste. Ce centre réputé de recherche veut en en effet que l’hydrogène puisse aussi être utilisé comme carburant… dans des moteurs thermiques classiques. Comme le souligne Cécile Barrère-Tricca, directrice de cet établissement, « L’hydrogène représente une alternative intéressante lorsqu’une grande autonomie et un faible temps de recharge sont nécessaires, notamment pour les poids lourds ; en outre, il apporte une solution de mobilité sans émissions de CO2 qui peut, face à l’urgence climatique, être mise en œuvre rapidement et à moindre coût ». Pour pouvoir utiliser de l’hydrogène dans des moteurs classiques, les chercheurs de l’Ifpen travaillent sur de nouvelles motorisations permettant d’obtenir à la fois un très haut rendement et de très faibles émissions d’oxydes d’azote (NOx), grâce un système de combustion en mélange pauvre combinant injection directe et suralimentation.« Notre ambition est de se rapprocher des 50 % de rendement et de devenir un acteur de référence dans le domaine de la combustion hydrogène en nous appuyant notamment sur de nouveaux moyens d’essais », précise Florence Duffour, chef du projet Motorisations Hydrogène au sein d’IFPen. « La motorisation hydrogène affiche un coût très compétitif car la technologie est mature et les investissements de production limités. Par ailleurs, elle ne n&e acute;cessite pas l’utilisation d’un hydrogène de grande pureté, facilitant ainsi la distribution du carburant », souligne pour sa part Bertrand Gattilier, responsable du programme Motorisations et Systèmes au sein de l’IFPen. Les premiers camions prototypes intégrant un moteur à combustion hydrogène devraient voir le jour à horizon 2023 et ce mode de propulsion innovant, bien moins coûteux que les camions « tout hydrogène » utilisant une pile à combustible, pourrait contribuer à accélérer de manière notable la décarbonation des transports routiers, responsables d’au moins 20 % des émissions mondiales de CO2. Force est de constater que, pour de multiples raisons, nous sommes malheureusement passés à côté de plusieurs révolutions technologiques majeures depuis une trentaine d’années, notamment sans les domaines de l’électronique, de l’informatique et du numérique. Nous ne devons pas, cette fois, rater cette révolution de l’hydrogène qui va aller bien au-delà du champ énergétique et changer, comme le souligne avec force Jeremy Rifkin, l’architecture même de notre industrie, de notre économie et de toute notre société. Cette fois, la France semble avoir pris la mesure de ce nouveau défi et nous avons tous les atouts pour que notre pays soit à la pointe mondiale dans cette rupture de civilisation. Sachons aller de l’avant et n’ayons pas peur de balayer les conservatismes et les corporatismes qui pourraient freiner cette formidable révolution, dont notre monde a besoin pour renouer avec l’idée de progrès et de développement économique et humain s’inscrivant dans le respect de la nature et de l’environnement. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | « Lorsque les premiers symptômes de cancer du poumon apparaissent, la maladie est déjà à un stade avancé et les chances de guérison sont réduites. Le cancer du poumon est la première cause de mortalité par cancer dans le monde. En le détectant plus précocement par l’analyse des scanners, le taux de mortalité peut chuter de 20 à 40 %. Avec notre plateforme iBiopsy, nous fournissons une solution pour déterminer si les lésions repérées sont malines ou bénignes », explique Fredrik Brag, directeur général et fondateur de Median Technologies. Le groupe, implanté à Sophia Antipolis (Alpes-Maritimes), a constitué une première cohorte de 1 800 patients afin d’effectuer une preuve de concept pour le dépistage précoce de ce cancer dans les populations à risque. « Nous publierons les premiers résultats d’ici la fin 2021 », indique le dirigeant. Deux autres pathologies ont déjà été abordées par l’entreprise, le cancer du foie et la maladie de NASH (stéatose hépatique non-alcoolique). La plate-forme d’imagerie phénomique iBiopsy repose sur une technologie d’apprentissage profond (deep learning) qui s'appuie sur des capacités de cloud computing. Ses algorithmes facilitent et accélèrent l’identification de nouveaux biomarqueurs qui "signent" pour chaque patient la présence de la maladie et aident à la caractérisation des lésions en se fondant sur l’analyse des images de scanners thoraciques. Ces données d’imagerie sont mises en relations avec d’autres sources de données : cliniques, histologiques… Pour le cancer du poumon, Median Technologies a collecté les données de plus de 17 000 patients auprès des bases de centres cliniques du monde entier. Les 1 800 premiers patients retenus vont permettre d’entraîner et valider les algorithmes de cette solution de diagnostic précoce LCS (Lung Cancer Screening) sur laquelle le groupe œuvre depuis plusieurs mois. « S’inspirant des modes de séquençage du génome, notre plateforme séquence l’image à la recherche de tous les signaux susceptibles de révéler un cancer du poumon, du foie… Habituellement, l’information est recherchée et apportée par la réalisation d’une biopsie, une intervention invasive pour le patient. Les technologies d’IA mises en œuvre dans iBiopsy sont à 80 % communes aux différentes pathologies, mais 20 % leur sont spécifiques ». Le groupe priorise ses développements de médecine prédictive et de précision sur des maladies aux coûts humains et médicaux lourds pour lesquelles les solutions de détection précoce restent imparfaites, complexes, voire inexistantes. Son objectif est, d’une part de réduire les délais d’analyse, d’autre part d’améliorer la qualité des interprétations des images médicales (scanners, IRM…) afin d’aboutir à un traitement plus personnalisé et de mieux mesurer ses effets dans le temps. Plus de 60 millions de personnes sont considérées à risque sur le cancer du poumon en Europe et aux Etats-Unis. Le marché du dépistage serait ainsi estimé « entre 5 et 20 milliards de dollars, selon le remboursement du test diagnostique », selon Fredrik Brag. Dans le cancer du foie, le taux de survie à 5 ans avoisine les 15 % seulement car cette pathologie est souvent détectée à un stade avancé. « Si on s’attaque suffisamment tôt à cette maladie, elle est réversible car le foie peut se régénérer, poursuit-il. Les enjeux d’un diagnostic précoce sont donc colossaux pour les patients. Mais nos technologies pourraient s’adapter aussi à des maladies neurodégénératives ». Article rédigé par Georges Simmonds pour RT Flash Usine Digitale | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | La société toulousaine Naïo Technologies, spécialisée dans la robotique agricole, maintient le cap sur la R&D pour rendre toujours plus efficients ses robots de désherbage mécanique. Au programme : le développement d'une nouvelle solution intégrant des outils d’intelligence artificielle pour Dino, son robot destiné au maraîchage de plein champ. L'objectif est d'améliorer les performances de Dino, le robot destiné au maraîchage de plein champ. « Pour maintenir notre avance sur le marché international, nous devons continuer à creuser l'écart avec nos challengers », souligne Matthias Carrière, directeur commercial de la société. Ce projet va mobiliser un budget de 1,2 million d'euros sur douze mois, accompagné à hauteur de 328 000 euros par l'Etat et la Région, pour 164 000 euros chacun. Nom de code : Persee (Perception pour Salade Et Epinard). « Il s'agit de travailler à la mise au point sur le robot d’une solution opérationnelle disruptive pour un désherbage de précision localisé, grâce à des outils d’intelligence artificielle embarqués (supervision par la machine), en interaction avec un système de monitoring humain à distance », explique Marie-Luce Fournié, directrice des opérations chez Naïo Technologies. A la clef : toujours plus de précision et de connectivité. Déjà capable de désherber entre les rangs, Dino est appelé à se rapprocher au plus près des plants. « A terme, nos travaux visent aussi à travailler sur la data pour aller vers la conduite de flottes de robots. Notre ambition est d'être en capacité d'organiser un travail collaboratif à plusieurs robots sur une même parcelle », précise Marie-Luce Fournié. Basée à Escalquens, dans le sud-est toulousain, la société, une des pionnières de la robotique agricole en France, est devenue en quelques années une référence internationale. La société, qui fête ses dix ans cette année, commercialise trois robots de désherbage et de binage autonomes : Oz pour du maraîchage diversifié en petites exploitations, Dino pour les grandes exploitations de plein champ et Ted, un robot enjambeur pour le travail dans les vignes. A ce jour, Naïo Technologies totalise près de 200 robots, en France et à l'international. « C'est à ce jour la plus grosse flotte de robots agricoles autonomes au monde », insiste Matthias Carrière. Après une année 2020 un peu compliquée par les contraintes sanitaires liées au Covid, la société table sur un chiffre d'affaires d'un peu plus de 4 millions d'euros pour 2021. 70 robots devraient sortir des ateliers de Naïo Technologies cette année. Article rédigé par Georges Simmonds pour RT Flash Usine Digitale | | ^ Haut | |
|
| | | Après les transports terrestres et aériens, les transports maritimes connaissent, à leur tour, une irréversible transition énergétique vers la décarbonation. Depuis quelques jours, le Bastø Electric assure la traversée du fjord d’Oslo entre Horten et Moss. Ce ferry d’une longueur de 139 m peut transporter 200 voitures ou 24 camions et 600 passagers. Doté d’une batterie de 4,3 MWh, il s’agit, à ce jour, du plus grand navire 100 % électrique au monde. La liaison entre Moss et Horten à travers les 10 km du fjord d’Oslo est la route maritime la plus fréquentée de Norvège. Chaque année, les 3 ferries de la compagnie Bastø Fosen qui la desservent transportent 3,8 millions de passagers et 1,8 million de véhicules. Equipés jusqu’à présent de moteurs diesel, ils seront d’ici 11 mois convertis tous les trois à la motorisation électrique. Premier d’entre eux, le Bastø Electric a été équipé d’une batterie de 4,3 MWh (soit l’équivalent de celles de 83 nouvelles Zoé), fournie par Siemens Energy. Une capacité suffisante pour assurer la traversée du fjord en mode « tout électrique ». Arrivé à quai, il peut alors recharger ses batteries sur une « méga » borne de recharge de 9 MW en un peu plus d’une demi-heure, c’est-à-dire le temps que durent les opérations de débarquement et d’embarquement des véhicules et des passagers. Avec ses 139 mètres de long et 21 mètres de large, ce ferry – qui peut embarquer 200 voitures ou 24 camions et 600 passagers – est à ce jour le plus grand navire 100 % électrique au monde. Lorsque les 3 ferries qui assurent la traversée du fjord seront électrifiés, leurs émissions de CO2 seront réduites de 75 %. Selon une étude de Siemens Energy, l’empreinte carbone engendrée par la fabrication des batteries et la conversion des bateaux à la motorisation électrique sera compensée en moins de 7 ans. Déjà à la pointe dans le domaine des voitures électriques, la Norvège l’est aussi dans celui des navires. Il y a 6 ans, le MF Ampere a été le premier ferry tout électrique au monde, et le pays compte électrifier progressivement toute sa flotte. D’ici l’année prochaine, 70 ferries électriques assureront les traversées des nombreux fjords norvégiens. Article rédigé par Georges Simmonds pour RT Flash Révolution Energétique | | ^ Haut | |
|
| | | L’Univers est en pleine croissance. Mais le phénomène est encore entouré de mystères. A quelle vitesse précise se déroule cette expansion ? Pourquoi celle-ci s’accélère-t-elle, éloignant les différents objets célestes les uns des autres alors que la gravité devrait au contraire les rapprocher ? Quel rôle les invisibles matière et énergie noires jouent-elles dans ce processus? Grâce à des microrobots conçus à l’EPFL, des réponses pourront certainement être apportées à ces questions, qui sont au cœur des recherches menées aujourd’hui en astrophysique. Car les microrobots développés par les scientifiques de l’EPFL permettront de faire un véritable bond dans le nombre et la qualité des données récoltées, et donc dans l’avancée des connaissances sur le sujet. Cet ensemble de 1.000 petits robots, dont la fabrication vient de se terminer, vient tout juste d'être livré à l’Université de l’État de l’Ohio. Il équipera à terme les deux télescopes - l’«Irénée du Pont» situé à l’observatoire Las Campanas (de l’institution Carnegie pour la Science) au Chili, et le «Sloan» à l’observatoire Apache Point au Nouveau-Mexique, États-Unis - utilisés dans le cadre de la collaboration internationale «Sloan Digital Sky Survey» (SDSS), à laquelle l’EPFL prend pleinement part. Ces positionneurs robotiques serviront à automatiser le placement des centaines de fibres optiques nécessaires pour orienter les yeux de ces télescopes vers les objets à observer. Il s’agit essentiellement de cibler des étoiles de notre galaxie - la Voie lactée. En caractérisant leurs propriétés lumineuses, il sera possible de calculer le «redshift» - soit le décalage vers le rouge - du spectre de galaxies voisines, abritant des trous noirs ou membres d’amas de galaxies et ainsi de déterminer leur distance. Ces mesures permettront de détailler un peu plus encore la carte en trois dimensions des étoiles et des galaxies dans l’Univers, l’un des objectifs principaux du SDSS. Jusque-là, le positionnement des fibres optiques des télescopes SDSS était réalisé manuellement. C’était un pur travail de dentelle, long et fastidieux. Car, pour atteindre les objets cibles, des centaines de fibres optiques devaient être placées dans des trous, sur une grande plaque métallique. Et pas question de se tromper : pour assurer la plus grande netteté de l’observation désirée, l’emplacement de chaque fibre se mesurait au micron près. Il fallait compter environ un mois pour déterminer les cibles, concevoir la plaque, la fabriquer, la percer et l’envoyer à l’observatoire. Puis 45 minutes à des mains expertes pour y introduire les mille fibres. Finalement, durant les nuits d’observation, le changement de plaque durait une vingtaine de minutes pendant lesquelles les observations n’étaient pas possibles. « Ces robots de fabrication suisse accélèrent considérablement ce processus, ouvrant la voie à une exploration spectroscopique du domaine temporel encore inédite et à grande échelle », s’enthousiasme Juna Kollmeier, directrice du projet SDSS-V. Les robots devraient être opérationnels sur le télescope «Sloan» à l’automne prochain et sur le télescope «Irénée du Pont» début 2022. « Au-delà d’un gigantesque gain en termes de flexibilité et de précision, nous espérons aussi augmenter très nettement le nombre d’objets observés », commente Mohamed Bouri, chef du groupe REHAssist de l’EPFL, en charge de la conception et de la mise en œuvre des robots. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | La moitié des femmes souffre d’une infection urinaire au moins une fois dans sa vie. Provoquée par des bactéries qui infectent l’urètre, elle est caractérisée par des brûlures lors de la miction, devenue difficile, et des envies fréquentes d’uriner. Boire de l’eau permet d’uriner davantage et d’empêcher les bactéries de remonter vers les reins. Si les symptômes persistent, le médecin peut prescrire des antibiotiques. Et s’il était désormais possible de se protéger des infections urinaires ? Une équipe de recherche du centre médical de l’Université Duke aux États-Unis a mis au point un vaccin. "Il n’y a aujourd’hui aucun vaccin efficace contre les infections urinaires, disponible aux États-Unis, malgré la forte prévalence de ces infections", explique Soman Abraham, auteur principal de la recherche. "Notre étude atteste du potentiel d’un vaccin très efficace qui permet à la fois d’éradiquer les bactéries résiduelles présentes dans l’urètre, mais aussi de prévenir les infections". D’autres essais cliniques ont précédemment testé l’efficacité de solutions destinées à la vaccination, mais aucune d’entre elles n’a montré des résultats satisfaisants. Pour l’heure, l’essai réalisé par Soman Abraham porte uniquement sur des souris. Le vaccin leur a été administré directement dans l’urètre. D’après Jianxuan Wu, co-auteur de la recherche, ce mode d’injection a amélioré l’efficacité du produit. Les résultats étaient "meilleurs qu’avec une vaccination intramusculaire classique". Le vaccin a permis aux systèmes immunitaires des rongeurs de lutter efficacement contre la bactérie Escherichia coli, responsable de l’infection. L’élaboration du produit est partie d’un constat : une infection urinaire génère une réponse inadéquate du système immunitaire. Les scientifiques américains ont remarqué que lorsque la bactérie E.Coli infecte les souris, leur système immunitaire envoie des cellules réparer les tissus endommagés, et seulement une petite quantité de cellules restantes sont dédiées à la lutte contre la bactérie. "Cela empêche la disparition totale de la bactérie", précisent les chercheurs, "elle reste dans l’urètre et peut ensuite attaquer à nouveau". Le vaccin mis au point permet de diriger le système immunitaire, et d’éliminer entièrement ce s bactéries. Article rédigé par Georges Simmonds pour RT Flash Duke Health | | | |
| Pour se maintenir en vie, la cellule doit fournir à ses différents organites tous les éléments énergétiques dont ils ont besoin et qui sont formés dans l’appareil de Golgi, son centre de production et de redistribution de lipides et de protéines. Mais comment les protéines qui transportent ces cargaisons – les kinésines – trouvent-elles leur chemin et la direction à prendre au sein du « réseau routier» de la cellule pour les acheminer au bon endroit ? Pour répondre à cette question, des chimistes et biochimistes de l’Université de Genève (UNIGE) ont mis au point un colorant chimique fluorescent qui, pour la première fois, permet de suivre l’activité de transport d’une protéine motrice spécifique dans une cellule. « Tout est parti d’une recherche qui ne s’est pas passée comme prévu », s’amuse Nicolas Winssinger, professeur au Département de chimie organique de la Faculté des sciences de l’UNIGE. Au départ, nous voulions développer une molécule qui permettrait de visualiser le niveau de stress de la cellule, c’est-à-dire quand elle accumule trop d’oxygène actif. Lors de l’expérience, la molécule n’a pas fonctionné, mais a cristallisé. Pourquoi ? Qu’étaient ces cristaux ? ». Trois hypothèses se sont imposées à l’équipe de recherche qui, pour les vérifier, a fait appel à l’expertise de Charlotte Aumeier, professeure au Département de biochimie de la Faculté des sciences de l’UNIGE. La première hypothèse suggérait que la cristallisation était due aux microtubules qui se polymérisent. « Les microtubules sont de petits tubes rigides qui peuvent grandir ou rétrécir et qui constituent «le réseau routier» qui permet aux molécules de se déplacer dans la cellule », explique Charlotte Aumeier. La deuxième hypothèse rendait l’appareil de Golgi responsable de cette réaction chimique. Enfin, la dernière possibilité suggérait que les cristaux étaient le résultat des petits pas faits par les protéines de kinésine dans les microtubules lors de leurs déplacements au sein de la cellule. Pour vérifier ces différentes options, l’équipe de l’UNIGE s’est associée à l’Institut national de santé (NIH) de Bethesda (USA), spécialisé dans la microscopie électronique. « Nous avons en premier lieu recréé des microtubules que nous avons purifiés pendant 14 heures », détaille Charlotte Aumeier. « Pour les kinésines, les protéines moteur qui se déplacent dans les microtubules et transportent les cargaisons, nous sommes partis de bactéries ». Les scientifiques ont ensuite constitué une vingtaine de mélanges différents contenant la petite molécule QPD, présente systématiquement dans les cristaux, et ont observé quelle solution fonctionnait. « Nous voulions savoir ce qui était nécessaire à la formation des cristaux. Les microtubules ? La kinésine ? Une autre protéine ? », s’interroge Nicolas Winssinger. Suite aux diverses expériences, l’équipe a découvert que la cause de la formation de ces cristaux était une des 45 sortes de kinésine présente dans la cellule. « A chaque petit pas que fait cette protéine de kinésine dans le microtubule, elle utilise de l’énergie qui laisse une trace reconnue par la molécule QPD », continue le chercheur genevois. « C’est de cette reconnaissance que naissent les cristaux ». Ainsi, les cristaux sont chimiquement laissés derrière le passage de la kinésine, qui peut être suivie à la trace par les scientifiques, tel le petit poucet. « Jusqu’à aujourd’hui, il n’était pas possible de suivre une protéine en particulier. Les techniques actuelles ne parvenant pas à séparer les kinésines individuellement, nous ne pouvions pas observer quel chemin elles prenaient avec précision », continue Charlotte Aumeier. « Grâce au développement de notre nouveau colorant chimique fluorescent, nous pouvons observer en détail le comportement d’une protéine, quelle route elle choisit, sa direction ou encore son chemin de préférence ». Pour la première fois, les scientifiques peuvent visualiser le parcours de marche des protéines motrices et étudier la question fondamentale de l’activité de transport et de la distribution des cargaisons dans les cellules. Article rédigé par Georges Simmonds pour RT Flash Unige | | | |
| Un contrat important vient d'être signé entre un laboratoire suisse, Debiopharm et le géant pharmacetique Merck. Le groupe suisse accorde au géant allemand une licence exclusive et mondiale pour le développement et la commercialisation du Xevinapant, un médicament en phase 3 contre le cancer de la tête et du cou. Dans le monde, le cancer de la tête et du cou représente plus de 650000 cas et 330000 décès par an, ce qui en fait le 6e type de cancer le plus courant. Le Xevinapant est un puissant antagoniste oral potentiel de première classe des IAP (Inhibitor of Apoptosis Proteins). Dans les études précliniques, le xevinapant rétablit la sensibilité à l'apoptose des cellules cancéreuses, les privant ainsi de l'un de leurs principaux mécanismes de résistance. Le patron de Debiopharm indique que ce produit réduit le risque de décès de 51 % par rapport au traitement standard des patients qui en ont bénéficié durant une étude de phase 2 (sur 100 personnes). Environ les deux tiers des patients du bras xevinapant étaient en vie à trois ans, contre 51 % dans le bras témoin. «Avec trois ans de recul, on peut dire que le Xevinapant ne se contente pas de soigner le cancer, il permet d’en guérir. Ce sont des résultats exceptionnels.», précise Bertrand Ducrey, Directeur général de Debiopharm. Article rédigé par Georges Simmonds pour RT Flash Debiopharm | | | |
| Selon une étude menée par le CNRS et Sorbonne Université, certaines crèmes solaires et crèmes de jour développent un composé cancérigène en vieillissant. Dans cette étude, les chercheurs ont acheté une dizaine de crèmes solaires et crèmes de jour que les Français utilisent régulièrement. Ils les ont ensuite fait vieillir prématurément. Les résultats ont montré qu'au bout d'une année, l'octocrylène, un filtre qui protège du soleil et qui est très souvent utilisé dans ces produits cosmétiques, s'est transformé en benzophénone, un perturbateur endocrinien qui peut passer à travers la peau. « Lorsqu'elle est sur la peau, la benzophénone peut induire des dermatites » explique Didier Stien, l'un des auteurs de cette étude. Les chercheurs ont constaté que, sur certaines de ces crèmes, la concentration en benzophénone pouvait dépasser les 10 mg/kilo au bout d'une année. « À notre connaissance dans la littérature scientifique et de manière générale, personne [avant cette étude] n’avait démontré que l'octocrylène se dégradait en benzophénone », a expliqué sur Franceinfo le chercheur Philippe Lebaron, professeur en microbiologie, enseignant à la Sorbonne. « Et je pense que c’est important d'alerter à la fois les fabricants de ces molécules et en même temps d'alerter les consommateurs sur le fait que les produits qui contiennent de l'octocrylène sont potentiellement dangereux ». Les chercheurs invitent donc les fabricants à éliminer l'octocrylène de leurs cosmétiques. « Il faudrait interdire les produits qui contiennent du benzophénone et de l'octocrylène », a affirmé sans ambages Philippe Lebaron. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Prenons trois membres d’une même famille relatant ensemble un événement commun passé. Le premier donne une version, le second la sienne et le troisième évoque une histoire encore quelque peu différente. Cette différence dans les récits n’est pas le fruit du hasard dans la mesure où les souvenirs sont subjectifs. Les événements réels font l’objet d’une déformation et d’une distorsion pouvant s’expliquer de manière scientifique. Une équipe de chercheurs de l’Université d’État de l’Oregon (États-Unis) a publié une étude sur ce sujet dans la revue JNeurosci le 22 février 2021. Selon eux, cette déformation permet au cerveau de mieux se rappeler des souvenirs que nous avons vécus. Dans le cadre de l’étude, les scientifiques ont demandé à des volontaires de mémoriser des visages associés à des objets. L’objectif était de retrouver le bon objet en présentant le visage correspondant. Toutefois, les objets en question étaient très semblables les uns par rapport aux autres malgré des différences notables au niveau des couleurs. Les participants pouvaient se souvenir de couples visage-objet après un jour d’entraînement intensif. Le lendemain, les participants devaient retrouver un objet correspondant à tel ou tel visage en particulier. Une roue de couleur fut utilisée pour les aider à se rappeler de la couleur de l’objet en question. Or, les chercheurs ont remarqué que les volontaires exagéraient les différences de couleurs entre des objets très similaires. Par exemple, si deux objets étaient de couleur brune, mais que l’un d’entre eux tirait un peu sur le rouge, les participants s’en souvenaient comme étant complètement rouge. Par la suite, les volontaires devaient imaginer l’objet correspondant à un visage tout en subissant une imagerie par résonance magnétique (IRM). Les chercheurs disent avoir focalisé leur attention sur le cortex pariétal, la zone du cerveau contenant les souvenirs lorsque nous essayons de nous en rappeler. Or, selon les données obtenues, l’exagération des souvenirs se reflète dans cette partie du cerveau. En fonction de la difficulté éprouvée pour différencier les objets, les participants exagéraient leurs souvenirs, mais cette même exagération était aussi le fait de l’activation du cortex pariétal. Les scientifiques ont également remarqué un autre phénomène intéressant. L’intensité de l’exagération allait de pair avec une certaine “qualité” du souvenir. Selon les scientifiques, le cerveau doit stocker une quantité très importante de souvenirs. Or, la superposition de souvenirs est inévitable, surtout que certains se ressemblent et engendrent donc des interférences. La déformation des souvenirs serait donc un comportement adaptatif pour permettre au cerveau de résoudre ces fameuses interférences et consolider les souvenirs. Article rédigé par Georges Simmonds pour RT Flash Science Post | | | |
| Nous consultons notre téléphone portable 221 fois chaque jour en moyenne, soit plus de 1500 fois par semaine (Tecmark, 2014). Nous sommes même un tiers à l’utiliser à table (Kantar, 2019) et 66 % à souffrir de nomophobie, cette peur panique d’en être séparé (Sondage SecurEnvoy, 2012). Et, bien loin de nous offrir une salutaire «diète numérique», notre hyperconnexion s’est encore aggravée avec le télétravail et les confinements… « Le besoin de déconnecter concerne aujourd’hui de plus en plus de catégories socioprofessionnelles » assure Catherine Lejealle, sociologue, chercheur au groupe ISC Paris et auteur de J’arrête d’être hyperconnecté! (Eyrolles, 2015). « Ce qui a changé la donne, c’est l’arrivée de l’e-mail sur nos téléphones, le passage à des abonnements illimités beaucoup moins chers et l’extension du Wi-Fi gratuit qui nous permet de consulter internet partout sans surcoût. Ces verrous techniques et financiers nous protégeaient. En sautant, ils nous ont rendus encore plus collés à nos portables, même pendant les vacances…». Or l’hyperconnexion a des effets toxiques sur notre sommeil, notre niveau de stress, notre capacité d’attention et de concentration… « Si on alimente sans cesse notre cerveau avec de nouvelles informations à traiter, il y a un risque de surcharge cognitive, de fragmentation de l’attention », poursuit la sociologue. « Pour éviter la surchauffe, notre cerveau a besoin de plages de maintenance…». Pour nous aider à déconnecter, de plus en plus de guides sortent en librairie : Lâche ton téléphone! (Catherine Price, LGF, 2018), 2 h chrono pour déconnecter (et se retrouver) (Virginie Boutin et Fabienne Broucaret, Dunod, 2018), Objectif digital détox (Jessica Rolland, Kawa, 2016)… Premier conseil, pour les spécialistes : désactiver les notifications, qui attisent notre curiosité et nous font vivre dans un régime d’alerte et de zapping permanents. On peut aussi régler son portable en mode avion ou ne pas déranger à certaines plages horaires de la journée. « L’important, c’est de reprendre le contrôle de son portable : ce n’est plus lui qui nous somme de le consulter, mais nous qui décidons à quel moment nous allons l’utiliser et dans quel but précis », explique Catherine Lejealle. « Il doit redevenir un plaisir, non une habitude compulsive ». Article rédigé par Georges Simmonds pour RT Flash Le Figaro | | | |
| Pourra-t-on un jour détecter facilement et rapidement les cancers à un stade précoce, grâce à une simple analyse du plasma sanguin ? Oui, selon les travaux d'une équipe d’une trentaine de chercheuses et de chercheurs de différentes institutions basées à Jérusalem. En permanence, des cellules meurent dans les tissus du corps humain. Des fragments d’ADN dérivant de ces cellules peuvent alors être retrouvés dans la circulation sanguine. Plus précisément, dans chaque cellule, les presque deux mètres d’ADN contenant l’information génétique de chaque individu sont compactés en une structure appelée chromatine dont l’unité de base d’organisation est le nucléosome, lui-même constitué de morceaux d’ADN enroulés autour de protéines nommées histones. C’est sous la forme de ces nucléosomes que des fragments d’ADN peuvent être retrouvés dans le sang. Ces fragments contiennent des informations sur leur tissu d’origine, mais également sur l’expression des gènes dans ce tissu, en lien avec des pathologies. Les modifications épigénétiques de l’ADN et des histones, c’est-à-dire les modifications réversibles induites par l’environnement, expliquent pourquoi des cellules partageant la même information génétique peuvent exprimer différemment leurs gènes. En particulier, les marques épigénétiques portées par les histones renseignent sur la régulation récente de l’activité des gènes au sein d’une cellule, et ont été largement décrites comme jouant un rôle important dans le développement de nombreuses maladies. L’étude montre qu’il est possible de quantifier les marques d’histones directement dans les fragments d’ADN circulant, et surtout que ces marques sont conservées depuis le tissu d’origine jusque dans la circulation sanguine. L’analyse fait appel à l’immuno-précipitation de chromatine (ChIP) pour détecter les modifications épigénétiques d’histones sur l’ADN, suivie par du séquençage à haut-débit afin de déterminer la localisation de ces modifications sur le génome. Les médecins et biologistes ont ainsi pu montrer que le signal d’une marque d’histone sur un gène donné, détecté par le ChIP-seq, était corrélé à l’expression de ce même gène. En quantifiant le signal épigénétique, cette technique permet d’évalue r quels gènes étaient exprimés par la cellule d’origine et donc de déterminer le tissu d’origine de l’ADN circulant. En pratique, ils ont montré que chez des patients ayant subi un infarctus, un signal spécifique aux cellules cardiaques est détecté dans le sang de manière très sensible et proportionnelle au taux de troponine dans la circulation, c’est-à-dire à la gravité de l’infarctus. En utilisant une cohorte de patients présentant différentes atteintes hépatiques, l’étude met en évidence la possibilité de différencier les pathologies d’un même organe grâce aux signaux épigénétiques retrouvés sur les fragments d’ADN provenant de cellules du foie. Enfin, en étudiant les fragments d’ADN dans le sang de patients atteints de cancer colorectal, ils ont établi une signature de 189 gènes associés au cancer colorectal et absents chez les donneurs sains : cela a permis de détecter les patients malades avec une très grande sensibilité et spécificité. L’impact en santé publique est potentiellement immense. Avec la création d’une bibliothèque de signatures épigénétiques associées à tous types de pathologies, ce type d’analyse pourrait théoriquement être utilisé pour diagnostiquer un large spectre de maladies de manière non-invasive, à partir de simples échantillons de sang. Dans le cas des cancers, un diagnostic plus précoce améliorerait considérablement le pronostic, la plupart des tumeurs n’étant opérables que si elles sont détectées suffisamment tôt. Mieux, cette technique pourrait également orienter la stratégie ainsi que le suivi thérapeutique, car ces travaux mettent aussi en évidence la possibilité de détecter des variations moléculaires parmi les patients porteurs de cancers. L’identification de ces variations (mutations ou amplifications de gènes comme par exemple le gène HER2) ne nécessiterait plus de biopsie et favoriserait la prescription de traitements plus ciblés et personnalisés. Les thérapies ciblées sont généralement plus efficaces et mieux supportées par les patients car visant plus directement les cellules cancéreuses. Article rédigé par Georges Simmonds pour RT Flash La Recherche | | | |
| Depuis l’apparition de l’épidémie, les scientifiques tentent d’expliquer à travers plusieurs études pourquoi le Covid-19 s’attaque plus facilement à des groupes sanguins en particulier. Une étude réalisée par des chercheurs de l'Ecole Médicale d'Harvard (Boston) vient de montrer que le SRAS-CoV-2 serait particulièrement attiré par l’antigène du groupe sanguin A. « Il est intéressant de constater que la protéine virale préfère le type d’antigènes du groupe sanguin A, qui se trouvent sur les cellules respiratoires. C’est vraisemblablement la voie par laquelle le virus pénètre dans la plupart des patients et les infecte », explique le professeur Sean R. Stowell. La protéine en question est appelée RBD (receptor blinding domain). Si elle semble préférer les antigènes du groupe sanguin A, elle ne semble pas avoir de préférence pour les globules rouges d’un groupe plus que pour un autre. Cette étude confirme la possibilité de l’influence du groupe sanguin sur l’infection au Covid-19. Les personnes du groupe sanguin O auraient au contraire moins de risque de contracter le Covid-19. Une autre étude, publiée en octobre dernier, montrait que la proportion du groupe O chez les malades était de 38 % contre 42 % dans la population générale. Une étude l’Inserm et de l’Université de Nantes rejoignait ces conclusions, affirmant que les personnes du groupe O avaient « un risque plus faible de la maladie que les autres, entre 10 et 33 % de risques en moins ». Selon l’hypothèse des scientifiques, les personnes du groupe 0 se contamineraient plus facilement entre elles. Toutefois, les scientifiques mettent en garde sur la conclusion de ces études car elles restent au stade « préliminaire ». Elles nécessitent des études complémentaires. « Notre observation n’est pas le seul mécanisme responsable de ce que nous constatons cliniquement », précise Sean R. Stowell. Article rédigé par Georges Simmonds pour RT Flash Blood Advances | | | |
| Selon une étude réalisée par des chirurgiens cardiothoraciques et bioingénieurs de la National University of Ireland (Galway) une injection d'un nouvel hydrogel à base d'élastine pourrait changer la façon dont le muscle cardiaque guérit après une crise cardiaque. Ces scientifiques irlandais avec leurs collègues du Bioforge Lab, de l'Université de Valladolid (Espagne), ont mis au point le premier hydrogel injectable qui pourrait aider à réparer et prévenir d'autres dommages au muscle cardiaque après un premier infarctus du myocarde. L'infarctus du myocarde est l'une des principales causes de décès cardiaque, en raison des dommages irréversibles causés au muscle cardiaque. La régénération naturelle du tissu cardiaque est minime et, en dépit des grands progrès des thérapies par cellules souches et des thérapies cellulaires exosomales, les traitements actuels ne permettent pas la réparation complète des tissus cardiaques. L'hydrogel est basé sur une famille de biomatériaux uniques, appelés recombinamères d'élastine (REL) que la société Bioforge avait développés dans la recherche d'hydrogels avancés pour la médecine régénérative. L'hydrogel a été conçu pour imiter l'environnement autour du cœur après un infarctus, puis personnalisé pour avoir la capacité de protéger et de favoriser la régénération du tissu cardiaque, explique le professeur Abhay Pandit, directeur scientifique du CÚRAM à l'Université nationale d'Irlande à Galway et chef de projet. L'effet thérapeutique de multiples injections de cet hydrogel dans le tissu cardiaque est ici évalué par test préclinique. Le test démontre son efficacité pour le remodelage des tissus cardiaques suite à une crise cardiaque. L’hydrogel, injecté dans le muscle cardiaque peu de temps après une crise cardiaque, réduit la formation de fibrose (cicatrisation du tissu cardiaque) et permet d’accélérer l’angiogenèse dans la zone lésée. Les chercheurs observent également une augmentation de la survie des cardiomyocytes toujours dans la zone blessée. Le mode d’administration est pratique en clinique : c’est une étape vers le développement de biomatériaux capables de réparer les tissus cardiaques après une crise cardiaque. Avec de grands avantages fonctionnels liés au mode d’administration par injection (les chercheurs travaillent actuellement à améliorer le prototype de système d'administration de l'hydrogel). Le professeur Mark Da Costa, chirurgien cardiothoracique et co-auteur de l'étude, précise : « le tissu cicatriciel qui se forme après une crise cardiaque se remodèle souvent de manière négative, causant des problèmes futurs comme une insuffisance cardiaque. L'injection rapide de cet hydrogel semble modifier la façon dont le muscle cardiaque récupère après une crise cardiaque. Article rédigé par Georges Simmonds pour RT Flash STM | | | |
| Alors que la pression et la température augmentent et que l’apport en énergie se raréfie en profondeur, des micro-organismes se développent au sein des couches sédimentaires jusqu’à plusieurs kilomètres de profondeur. Si près de la moitié du volume de ces sédiments présente une température supérieure à 40°C, pour des raisons d’accessibilité la grande majorité des études ne traite que des couches aux températures inférieures à 30°C. L’Agence japonaise pour les sciences et les technologies marines et terrestres (JAMSTEC) et le centre des sciences de l’environnement marin de l’Université de Brême (MARUM) étudient les facteurs de développement et l’étendue de cette biosphère profonde. Des échantillons sous-marins prélevés lors d’une expédition de forage ont fait l’objet d’analyses par 29 instituts de 9 pays différents. Une des réussites de cette équipe a été d’identifier un site de forage dans la zone de subduction de la fosse de Nankai au large des côtes japonaises qui présente l’avantage de pouvoir échantillonner à une température de 120°C à seulement 1180 mètres de profondeur quand il faut en général atteindre 4000 mètres de profondeur. L’échantillonnage et l’analyse ont été effectués à la limite de la faisabilité technique : l’extraction, le transport - par hélicoptère vers des laboratoires de Kochi au Japon - et le traitement des échantillons ont nécessité le respect d’un protocole sanitaire rigoureux afin d’éviter toute contamination et d’assurer une détection fiable de la vie microbienne. Cette étude a permis d’étayer les connaissances actuelles sur les conditions de vie dans les grands fonds marins et de repousser à 120°C la température limite connue à laquelle des traces de vie microbienne sont détectées hors d’un laboratoire et dans un environnement pauvre en énergie – les dernières études de terrain datant d’une vingtaine d’années indiquaient la présence de vie à 800 mètres de profondeur entre 80 et 90°C. Il a été mis en évidence une alternance de couches au sein desquelles une présence microbienne est détectée, puis perdue. L’effondrement de la densité de population microbienne aux alentours de 45°C est suivi d’une augmentation significative de la concentration d’endospores – formes sous laquelle les bactéries sont extrêmement résistantes. Sous cette forme, les bactéries entrent dans un état de dormance réversible qui leur permet de résister à des conditions particulièrement défavorables et de se réactiver dans un environnement plus propice. Un pic de concentration microbienne a ainsi été détecté aux alentours de 85°C et ce jusqu’à 120°C. Le Docteur INAGAKI Fumio, chercheur de la JAMSTEC, a fait part de sa surprise face à ces résultats qui mettent pour la première fois en évidence – in natura – la coexistence d’états de survie et de dormance au-delà de la limite de température connue de la biosphère des grands fonds. Ces recherches révèlent donc non seulement un lien entre la présence de vie microbienne dans les grands fonds et la température de l’environnement, mais également avec les processus géologiques de subduction présents dans la faille de Nankai. Article rédigé par Georges Simmonds pour RT Flash Jamastec | | | |
| La volonté est la clé pour améliorer l'apprentissage et la mémoire. Ce n’est pas une simple affirmation mais un décryptage en règle de l’ensemble du mécanisme en jeu, proposé par ces chercheurs de l’ICREA et de la Ruhr-University Bochum. Cette équipe de l’ICREA (Catalan Institution for Research and Advanced Studies, Barcelone), de l’IBEC (Institute for Bioengineering of Catalonia, Barcelone) et du département de neuropsychologie de la Ruhr-Universität Bochum (Allemagne) et de l'Université Fabra (Barcelone) identifie pour la première fois, chez l'homme, le mécanisme responsable de ce phénomène qui lie la volonté à l’apprentissage. La clé réside en effet dans ces ondes spécifiques, « thêta », générées par l'hippocampe du cerveau humain, lorsque c'est le cerveau qui contrôle le processus d'apprentissage. Cette expérience menée auprès de patients épileptiques qui, au cours d’un jeu de réalité virtuelle, doivent parcourir une piste en forme de carré et sont invités à se rappeler des objets présentés à différents endroits de la piste, montre que la mémoire est bien plus précise et donc l’apprentissage bien plus efficace, lorsque les participants pratiquent une navigation active au cours de laquelle ils contrôlent librement leurs mouvements. En effet, si c’est un autre sujet qui a planifié le parcours et décidé de l'ordre d'exposition aux images, la mémorisation des images devient moins efficace. L’étude de l'activité électrophysiologique de l'hippocampe confirme toute l'importance de l'apprentissage actif chez chacun des participants : « Chez les sujets qui ont eu la possibilité d'effectuer une navigation active, une augmentation des oscillations thêta est identifiée, qui permet un apprentissage et une mémorisation plus efficaces ». L’augmentation des oscillations thêta se produit en 2 pics consécutifs, séparés par quelques millisecondes, l’un qui correspond à l'encodage de l'information, l'autre à la récupération de données stockées ou « rappel de mémoire ». Naviguer librement dans l'environnement virtuel permet ainsi une signalisation favorable à la fixation et la récupération des informations - comme cela a déjà été démontré chez les rongeurs. Ces résultats font ainsi la liaison entre des résultats expérimentaux obtenus chez des modèles animaux, et l’étude de la mémoire humaine. Identifier ces pics dans les oscillations thêta pourrait faciliter des interventions concrètes : « Par exemple, nous pourrions manipuler l'oscillation pour modifier les souvenirs traumatiques ou améliorer des souvenirs perdus en raison d'une amnésie ou de maladies neurodégénératives », suggère l’auteur principal, le Docteur Pacheco. « Il s'agit d'une découverte très importante » déclare Paul F. M. J. Verschure, co-auteur et professeur à l’ICREA et à l'IBEC : « les résultats obtenus sont clairs. Le fait que la volonté soit la clé de l’intégration de l’information dans la mémoire nous donne des arguments pour dire que si nous transformons les gens en sujets passifs, s’ils sont contraints, leur apprentissage risque d'être inefficace ». Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|