| | | | | | | Edition du 21 Octobre 2022 |
| |
|
| Edito Les Prix Nobel 2022 récompensent des scientifiques qui ont changé à la fois notre vie et notre vision du monde…
AVANT-PROPOS : CAMPAGNE DE DONS POUR PERMETTRE A RT FLASH DE CONTINUER A PARAITRE EN 2023 A ce jour, 20 Octobre, notre association ADIST qui gère RT Flash a collecté 4058 euros. A raison de 1360 euros par mois, cette somme permettrait à RT Flash d'être mis en ligne jusqu'au 30 Mars 2023. Nous avons encore beaucoup de chemin à parcourir pour atteindre le 31 Décembre. J'ai la conviction que tous les lecteurs de RT Flash (dont le premier numéro remonte à Mai 1998) qui acquièrent, semaine après semaine, des connaissances nouvelles, gratuitement et sans publicité, ont bien conscience qu'il nous faut acquérir quelques sous pour permettre à notre Lettre de continuer à paraître chaque semaine. Je le répète chaque semaine mais cela est important. Les personnes soumises à l’impôt sur le revenu verront les 2/3 (66%) de leur don qui leur seront remboursés par le Trésor Public. Je vous fais confiance et vous remercie. Bien Cordialement René Trégouët Sénateur Honoraire Fondateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Si vous voulez aider RT Flash, Lettre d'informations scientifiques et technologiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant : Faites un DON pour sauver RT Flash, vous bénéficierez d’une réduction fiscale de 66 % EDITORIAL : Les Prix Nobel 2022 récompensent des scientifiques qui ont changé à la fois notre vie et notre vision du monde…
Alors que nous venons d’apprendre le nom des lauréats distingués par les différents prix Nobel scientifique de 2022, j’ai voulu cette semaine rendre hommage à la fois à la science et aux hommes et femmes remarquables, bien que peu médiatisés, qui la font patiemment, modestement mais irrésistiblement avancer. A tout seigneur, tout honneur : le grand physicien français Alain Aspect, déjà honoré par de multiples récompenses (Médailles Einstein et Bohr, médaille du CNRS) vient de recevoir, ainsi que ses deux collègues, l’Autrichien Anton Zeilinger et l'Américain John Clauser, le prix Nobel de physique pour leur contribution majeure et décisive à la confirmation expérimentale des étranges lois de la physique quantique. Alain Aspect a commencé son exceptionnelle carrière scientifique à l’École normale supérieure de Cachan (promotion 1965), avant de poursuivre ses études à l’Université de Paris, où il obtient une licence de physique en 1968, puis un diplôme d’optique l’année suivante. Devenu Docteur en physique en 1971, il part ensuite enseigner pendant trois ans à l’Ecole Supérieure Normale de Yaoundé, au Cameroun. C’est au cours de ce séjour africain qu’il tombe, par hasard, sur un ouvrage qui vient d’être publié, et va changer sa vie, Mécanique quantique, par Claude Cohen-Tannoudji, Bernard Diu et Franck Laloë. En 1974, de retour à l’ENS de Cachan, Alain Aspect, qui s’est pris de passion pour la physique quantique et ses applications potentielles, découvre un article du physicien John Bell qui montre que le vieux débat sur l’existence réelle d’une intrication quantique irréductible de certaines particules peut être tranché par des expériences. Aspect n’ignore pas que l’interprétation de ce phénomène d’intrication quantique fut l’objet d’une mémorable et longue et passionnante controverse, à la fois scientifique et philosophique, entre les deux géants de la physique de l’époque, Einstein et Bohr. En 1935, Albert Einstein et deux de ses collègues, Boris Podolsky et Nathan Rosen (E.P.R.) avaient imaginé une célèbre expérience de pensée destinée à montrer que la physique quantique devait être incomplète et contenir des "variables cachées" qui n’avaient pas encore été découvertes. Leur raisonnement était le suivant : l’hypothèse de l’existence d’états intriqués mène à un paradoxe intenable car, soit il existe une influence mystérieuse qui se déplace plus vite que la lumière (ce qui remet en cause le principe classique de causalité), soit la physique quantique est incomplète et il convient alors de découvrir les variables inconnues qui lui manquent. En 1964, le physicien irlandais John Bell démontra qu’il existait des effets, en théorie mesurables par l’expérience, liés à une éventuelle nature quantique des particules, les fameuses "inégalités de Bell". Concrètement, cela signifiait que, si une expérimentation suffisamment précise (qui était impossible à l’époque, compte tenu de l’état de la technologie) parvenait à montrer que ces inégalités étaient violées, cela voudrait dire de façon incontestable qu’il existait bien un intrication quantique des photons (à condition qu’ils soient issus d’une même source) et que ces particules avaient l’étrange propriété de pouvoir réagir instantanément, l’une en fonction de l’autre, indépendamment de la distance qui pouvait les s&ea cute;parer et sans qu’il y ait la moindre transmission d’information de l’une vers l’autre… En 1982, dans une expérimentation magnifique (à l'Institut d'optique d'Orsay), l'une des plus belles de toute l'histoire physique, Alain Aspect et son équipe parvinrent à mettre en place un dispositif expérimental très sophistiqué, s’appuyant à la fois sur une source de photons très puissante, issue d’un laser à krypton, et sur un système de polariseurs à commutation ultra-rapide et suffisamment éloignés les uns des autres, pour exclure toute transmission d’information entre les photons étudiés. Rappelons que les photons sont des particules élémentaires de lumière (chacune étant associée à une onde) qui n'ont pas de masse et véhiculent la force électromagnétique. Les résultats de cette expérience rigoureuse furent sans appel : non seulement ces photons violaient sans aucune ambigüité les inégalités de Bell, mais ces violations étaient d’une ampleur exactement conforme à celle prévue par la théorie quantique. Il fallait donc se rendre à l’évidence, des photons issus d'une même source restaient corrélés ensuite à jamais dans leur comportement... quelle que soit la distance qui les sépare ! Cette expérimentation eut un retentissement considérable dans le monde scientifique, mais également dans la sphère philosophique et épistémologique, en montrant qu’il existait bien, dans le domaine de l’infiniment petit (et même, on le sait à présent, un peu au-delà), un principe de non-séparabilité quantique étrange qui ne résultait pas de notre ignorance mais constituait une loi fondamentale de la Nature. Sur ce point, le grand Einstein, qui avait pourtant été, il faut le rappeler, l’un des pères de la mécanique quantique, s’était trompé (une fois n’est pas coutume) et la physique devait se résoudre à abandonner le principe classique de causalité strict, inscrit dans un espace et un temps précis. Cette propriété dite "d'intrication quantique", qui défie notre entendement, est donc bien au cœur des lois fondamentales qui régissent la Nature. Rappelons que la mécanique quantique, qui s’est élaborée entre 1900 et 1927, est l’œuvre d’une dizaine de physiciens d’exception, parmi lesquels il faut citer Planck, De Broglie, Einstein, Dirac, Heisenberg, Schrödinger, Born et Pauli, qui ont à tout jamais marqué l’histoire de la science et des idées. Après avoir été nommé Maître de conférence à l’Ecole Polytechnique en 1984, Alain Aspect commence en 1985 une nouvelle étape de son parcours scientifique hors du commun, quand Claude Cohen-Tannoudji (Prix Nobel 1997), professeur au collège de France et spécialiste en physique quantique et physique atomique, fait appel à lui pour lancer un groupe de recherche, au sein du Laboratoire Kastler Brossel, consacré au refroidissement d’atomes par laser. A cette époque, on pense encore qu’il existe pour chaque atome une vitesse minimale en dessous de laquelle on ne peut descendre. Cette coopération entre Aspect et Cohen-Tannoudji fait merveille et cette équipe de choc réussit l’impossible, freiner des atomes d’hélium jusqu’à un quart de leur vitesse de recul... atteignant ainsi des températures inférieures au microkelvin, soit un millionième de degré Celsius au-dessus du zéro absolu ! « Pour atteindre ce résultat, il a fallu mettre l’atome dans un état quantique où chaque atome est présent simultanément à plusieurs endroits, comme le photon dans l’interféromètre », explique Aspect. Ces avancées fondamentales trouvent également des applications dans le domaine de la mesure, avec les horloges à atomes froids du Laboratoire national d’essai (LNE) et de l’Observatoire de Paris, qui restent à ce jour les plus précises au monde depuis trente ans. En 1998, cette équipe produit le premier condensat de rubidium et en 2001, elle parvient, pour la première fois au monde, à produire un condensat de Bose-Einstein constitué d’atomes d’hélium métastable. Ces travaux de pointe ouvrent la voie vers de nombreuses avancée technologiques majeures, toujours en cours, comme la puce atomique, développée au sein du Laboratoire de physique et nanostructures de Marcoussis, ou l’interféromètre atomique qui devrait permettre à un avion de déterminer sa trajectoire sans aucune observation externe de façon à pouvoir faire face à une défaillance éventuelle des systèmes classiques de localisation par radiobalise ou par satellite. Alain Aspect ne manque jamais une occasion de rappeler à quel point la physique quantique, qui est restée pendant un demi-siècle une sorte de curiosité conceptuelle et théorique, a joué un rôle important, bien que méconnu, dans l’évolution de notre économie et de notre société : « Elle a notamment permis l’ invention d’objets révolutionnaires comme le transistor, les circuits intégrés ou le laser. Elle est en quelque sorte à la base des nouvelles technologies de l’information et de la communication » souligne-t-il. Les travaux d’Aspect, et de ses deux collègues, l'Américain John F. Clauser et l'Autrichien Anton Zeilinger sur l'intrication quantique, ont également permis l’avènement de la deuxième révolution quantique, celle qui a déjà commencé et va bouleverser, d’ici dix ans, l'informatique, les télécommunications et la cryptographie. Reste toutefois à rendre compatible, dans un nouveau cadre théorique élargi et cohérent, la physique quantique, la thermodynamique et la relativité générale, les trois grandes théories physiques qui décrivent, à des échelles différentes, le réel... Je dois aussi vous parler du Prix Nobel de médecine 2022, amplement mérité, qui a été décerné au grand scientifique suédois Svante Pääbo, dont le père, Sune Karl Bergström (1916-2004) a lui-même obtenu le Nobel de Médecine en 1984, pour ses travaux ayant permis de découvrir les prostaglandines. Fondateur et pionnier de la paléogénétique, Svante Pääbo a réussi la prouesse de décoder le génome de notre cousin Neandertal et a ainsi pu montrer que nous avions hérité 2% de ses gènes, ce qui paraît peu mais a joué un rôle majeur dans notre évolution et la capacité d'adaptation de notre système immunitaire à notre environnement... Svante Pääbo a travaillé pendant trente ans au développement de nouveaux outils et méthodes génétiques modernes pour étudier l'ADN des Néandertaliens. A force de persévérance et d’ingéniosité, Il a réussi à contourner des difficultés techniques que l’on pensait insurmontables, compte tenu de la dégradation dans le temps des brins de nucléotides. C’est après une thèse obtenue en 1986 auprès d'Allan Wilson (Université de Californie, Berkeley), un chercheur mondialement connu dans le domaine de la biologie de l'évolution, que Svante Pääbo a commencé à développer des méthodes pour étudier l'ADN des Néandertaliens. Svante Pääbo est parvenu à séquencer une région de l'ADN mitochondrial d'un morceau d'os de Néandertalien vieux de 40 000 ans. Il a ensuite pu établir que les Néandertaliens constituent une espèce génétiquement distincte. En 1997, le biologiste suèdois a créé un centre de recherche en paléogénétique au sein de l'Institut Max Planck d’anthropologie évolutionniste à Leipzig. S’appuyant sur ses nouveaux outils d’analyse, il entreprend alors une nouvelle aventure scientifique majeure, le séquençage du génome, non plus mitochondrial, mais nucléaire de l'homme de Neandertal. Au terme de treize ans de recherche, Pääbo crée l’événement en 2010, en publiant la première séquence du génome de Neandertal et en confirmant, grâce à des analyses comparat ives, que l’ancêtre commun des Néandertaliens et des Homo sapiens vivait il y a environ 800 000 ans. Poursuivant ses investigations, Svante Pääbo se met à étudier l’évolution longue et complexe des relations entre les Néandertaliens (apparus il y 400 000 ans et disparus il y 30 000 ans), et les humains modernes de différentes régions du monde. Il montre notamment que les séquences d'ADN des Néandertaliens étaient plus proches de celles des humains contemporains originaires d'Europe ou d'Asie, que de celles des humains modernes originaires d'Afrique. Cette découverte considérable démontre que les Néandertaliens et les Homo sapiens se sont croisés pendant plusieurs dizaines de milliers d’années, ce qui explique pourquoi 1 à 4 % du génome des humains actuels provient des Néandertaliens. En 2008, l'équipe de Svante Pääbo parvient à séquencer un fragment d'os de doigt vieux de 40 000 ans, découvert dans la grotte de Denisova, dans le sud de la Sibérie. Et là, c’est le coup de tonnerre : la séquence d'ADN identifiée se distingue nettement, à la fois de toutes les séquences connues de l'homme de Néandertal et de toutes celles de l'homme actuel. Pääbo vient tout simplement de découvrir une nouvelle espèce d’humains, que l’on baptise les Denisoviens. Grâce à ces nombreuses découvertes, un nouveau scenario, plus foisonnant, de l’évolution humaine se dessine. Celui-ci établit qu’après la migration d’Homo sapiens hors d'Afrique, on comptait au moins deux populations d'hominidés éteintes qui habitaient l'Eurasie. D’une part, les Néandertaliens, établ is dans l'ouest de l'Eurasie ; d’autre part, les Denisoviens, qui peuplaient les régions orientales de cet immense continent. Les travaux de Pääbo montrent également que, tout au long de leur longue expansion hors d'Afrique et de leur migration vers l'est, les Homo sapiens se sont croisés non seulement avec les Néandertaliens, mais aussi avec les Denisoviens… Enfin, nous devons à la paléogénomique d’avoir montré à quel point les séquences génétiques archaïques continuent de jouer un rôle important dans notre physiologie et notre capacité d’adaptation. Pääbo a montré qu'un transfert capital de gènes s'était produit entre ces espèces d’humains à présent éteintes et Homo sapiens, après la migration hors d'Afrique, il y a 70 000 ans. Ces gènes se sont incorporés au génome de Sapiens et ont profondément modifié les capacités de son système immunitaire face aux différents pathogènes, bactéries et virus, présent dans son nouvel environnement. Il faut enfin dire un mot des trois lauréats récompensés du Nobel de Chimie, les Américains Carolyn R. Bertozzi et K. Barry Sharpless et le Danois Morten Meldal, pour leurs travaux remarquables sur la "Chimie-Click" et l’une de ses extensions, la chimie orthogonale, fondée en 2003, par Carolyn R. Bertozzi. La "Chimie click" est un concept introduit par Barry Sharpless en 2001, et qui lui avait déjà valu le Nobel de Chimie cette même année, pour décrire une chimie qui vise à synthétiser des produits de manière rapide et efficace en clappant des molécules entre elles, par des liaisons avec des hétéroatomes. Cette approche, dite "biosourcée", s’inspire des réactions chimiques à l’œuvre dans la nature. Elle consiste à favoriser et à maîtriser des réactions chimiques "biocompatibles", c’est -à-dire présentant à la fois un rendement élevé, une grande simplicité de mise en œuvre, une très faible empreinte environnementale et une stéréospécificité, c‘est-à-dire la formation d’un seul produit au cours de la réaction. La Chimie click constitue aujourd’hui un outil innovant dans le domaine de la synthèse organique avec des applications dans de multiples domaines : chimie pharmaceutique, biologie, polymères, nanotechnologies... La chercheuse américaine Carolyn Bertozzi a quant à elle été la première à ouvrir la chimie "click" aux applications biologiques et médicales. Ses "réactions bioorthogonales" - qui interviennent sans perturber le fonctionnement normal de la cellule - sont à présent largement utilisées à travers le monde pour élucider le fonctionnement des cellules, et contribuent par exemple au développement de nouveaux traitements contre le cancer. Les chercheurs de l’IC2MP de Poitiers ont ainsi développé une nouvelle méthode prometteuse de lutte contre le cancer, basée sur l’utilisation de marqueurs artificiels pouvant êt re introduits à la surface des cellules par une réaction bioorthogonale. Grâce à ce type de marquage très ciblé, ces scientifiques ont montré qu’il était possible de guider les lymphocytes T vers les cellules malignes, pour mieux détruire ces dernières. Une autre équipe de l’Institut de physique et chimie des matériaux de Strasbourg a réussi à clipper des nanoparticules magnétiques sur des surfaces de molécules organiques. Il est frappant de voir à quel point ces chercheuses et chercheurs, d’exception, malheureusement peu connus du grand public, ont contribué, par leur audace conceptuelle, leur incroyable persévérance et leur optimisme sans faille, à faire reculer les limites du possible, à faire avancer de manière décisive notre connaissance fondamentale des lois de la Nature, qu’il s’agisse de l’organisation de la matière, des mécanismes du vivant ou de l’évolution de notre espèce, et enfin à améliorer très concrètement notre vie, en permettant des innovations de rupture scientifiques et technologiques dans de nombreux domaines, médecine, biologie, énergie, transports, informatique, télécommunications, chimie industrielle… Ces découvertes et avancées de la connaissance, justement récompensées par ces prix Nobel, doivent nous rendre confiants dans l’avenir et nous conforter dans la conviction que la raison et la science, lorsqu’elles sont bien conduites et mises au service du bien commun, seront plus que jamais, demain, nécessaires pour relever les immenses défis qui attendent notre planète… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | En France, le phénomène de retrait-gonflement des sols argileux (RGA) représente la deuxième cause d’indemnisation de la part des assureurs au titre des catastrophes naturelles, après les inondations. Il provoque des dommages sur les constructions, en particulier sur les maisons individuelles de type pavillonnaire. En cause : des variations de la teneur en eau des sols qui se gonflent en période humide et se rétractent lors d’épisodes de sécheresse, à l’image d’une éponge. Une famille de minéraux argileux est particulièrement sensible à ce phénomène : celle des smectites. Avec le réchauffement climatique, les domm ages provoqués par le RGA risquent de fortement augmenter dans les années à venir. En 2015, une étude prospective réalisée par la caisse centrale de réassurance a estimé qu’ils devraient progresser, selon les secteurs, de 20 à 200 % à l’horizon 2030, et de 50 à 300 % à l’horizon 2050. D’ici à la fin du siècle, ils pourraient même être multipliés par un facteur compris entre 3 et 6, en fonction des scénarios de hausse des températures retenues. La région Occitanie est particulièrement touchée par ce phénomène, puisqu’elle supporte 25 % du coût national lié au RGA, estimé en France à environ 350 millions d’euros chaque année. Un projet baptisé ViSéGéo a pour objectif de développer un système prédictif du risque de RGA et d’alerte en direction des populations. Piloté par Predict Services, une entreprise spécialisée dans l’aide à la gestion des risques hydroclimatiques, il regroupe également le BRGM (Bureau de recherches géologiques et minières) et Geosec, une entreprise qui développe une solution de remédiation pour réduire la vulnérabilité du bâti exposé au RGA. Le BRGM a développé un modèle algorithmique de prédiction du phénomène, qui intègre deux types de variables entrantes. Tout d’abord, des données spatiales provenant de cartes établies depuis 2015 sur les risques d’aléas liés au RGA en fonction des caractéristiques géotechniques des sols sur l’ensemble du territoire français. Ensuite, des données relatives aux variations de la teneur en eau des sols, obtenues à partir d’un modèle développé par Météo France au travers du schéma d’analyse SAFRAN. Celui-ci calcule tous les mois, en tout point du territoire, un indice d’humidité du sol, à l’échelle d’une maille de 8 km sur 8. « Nous avons fait tourner ce modèle sur la région Occitanie en le confrontant aux catastrophes naturelles liées au RGA et enregistrées sur la période 2000 à 2010 » explique Bastien Colas, ingénieur géotechnicien au BRGM. « Environ 20 000 sinistres ont été répertoriés sur cette décennie. Nous avons ensuite validé ce modèle en réalisant une rétro-analyse sur des périodes de sécheresse récentes. Grâce à lui, nous pouvons à présent hiérarchiser zone par zone, et mois après mois, les secteurs risquant d’être plus ou moins touchés par le RGA ». Pour finaliser ce projet, un système pour informer les populations sur les risques encourus par leurs habitations doit à présent être mis en place. Ce travail va être réalisé par l’entreprise Predict Services, et ce seront les communes qui recevront des messages d’alertes, charge à elles ensuite de relayer l’information auprès de leurs administrés. Plusieurs niveaux de vigilance seront établis. Des messages seront dans un premier temps destinés à sensibiliser les habitants à leur exposition, puis en fonction du risque lié à une variation importante de la teneur en eau du sol, d’autres leur seront envoyés pour les inciter à se mobiliser. « Sur le même principe que pour les inondations, nous allons proposer aux populations de rentrer dans une stratégie pour limiter les risques, même si dans le cas du RGA, la catastrophe naturelle a beaucoup plus d’inertie et les habitants ont plus de temps pour réagir », déclare Bastien Colas. « Face à l’imminence d’une crise, nous allons leur proposer un catalogue de mesures pour limiter les dommages, car nous ne prétendons pas parvenir à les éliminer totalement ». Le catalogue de mesures est actuellement en cours de finalisation. Par exemple, les habitants seront incités dans un premier temps à élaguer leurs arbres situés proches de leurs maisons. La végétation peut en effet amplifier le RGA, car en période de sécheresse, les racines des arbres assèchent les sols en profondeur, à une distance pouvant aller jusqu’à 1 à 1,5 fois leur hauteur. Une mesure, un peu plus lourde à mettre en œuvre, pourra consister à poser un écran anti-racinaire autour des fondations de la maison, après avoir creusé une tranchée d’environ deux mètres de profondeur. Une autre pourra consister à rendre étanche le sol à l’aide d’une géomembrane autour des fondations afin de limiter l’évapotranspiration. « En cas de risque très élevé, une solution de prévention et de protection active pourra aussi être mise en œuvre », ajoute Bastien Colas. « Nous proposerons d’utiliser le procédé développé par l’entreprise Geosec qui consiste à injecter des résines spéciales dans le sol afin de mitiger les conséquences du phénomène de retrait gonflement des argiles. En réduisant la teneur en eau dans le sol, ce procédé de consolidation et de stabilisation du sol est en mesure de limiter les risques et de réduire les désordres affectant tout bâtiment dus au phénomène de sécheresse ». D’ici à la fin de l’année, ce nouveau système de prédiction de risque de RGA et d’alerte doit être mis en place en Occ itanie. Si les résultats sont concluants, il pourrait à terme être déployé sur l’ensemble du territoire national. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | L’équipe du Professeur Xinjian Fan, de l’Université Soochow à Taïwan, a utilisé des gouttelettes d’un ferrofluide, en l’occurrence des nanoparticules d’oxyde de fer magnétique en suspension dans de l’huile, pour fabriquer un robot souple d’environ un centimètre. Un ensemble d’aimants contrôlables peut diriger le robot pour qu’il se déplace ou change de forme, selon les besoins, en agissant sur les nanoparticules. L’objectif de ces recherches est de mettre au point un robot fluide fonctionnel, contrôlable à distance, capable de se glisser à l’intérieur du corps humain pour y intervenir d’une façon très peu invasive. L’idée serait, par exemple, qu’il puisse y délivrer des médicaments de façon extrêmement ciblée, ou encore désagréger des caillots sanguins. Le dispositif mesure environ un centimètre. Il est fluide, puisqu’il se compose de nanoparticules magnétiques d’oxyde de fer en suspension dans une huile. Tout l’intérêt est que ce fluide magnétique réagit donc très bien aux aimants utilisés pour le contrôler à distance. En fait, il peut même, affirment les scientifiques, changer de forme et d’échelle à volonté. Dans une vidéo de démonstration, on peut ainsi voir le robot évoluer à travers un labyrinthe, qui le confronte à diverses difficultés. Il se révèle ainsi capable de s’étirer lorsqu’il doit s’introduire dans des passages étroits, de se rétracter pour se compacter, mais aussi de se séparer en plusieurs gouttelettes pour réduire sa taille, ainsi que de se rassembler par la suite. Pour les scientifiques, ces capacités diverses le rendent à même de naviguer dans le corps humain de façon optimale. L’intérieur de notre corps est rempli de passages difficiles à franchir pour des dispositifs rigides. La possibilité de se déformer et de se scinder à volonté rend donc ce robot très apte à se déplacer en nous de façon fluide. Il pourrait donc atteindre des zones délicates de manière non invasive. L’intérêt serait aussi de délivrer des médicaments de façon ciblée, et ce même à plusieurs endroits à la fois. Comme le soulignent les scientifiques, ce robot fluide n’est pas le premier de son espèce. De nombreux travaux de recherches portent sur ces dispositifs qui suscitent l’intérêt, notamment pour leurs possibles applications dans le domaine médical : « Les robots miniatures magnétiques non attachés peuvent naviguer dans la lumière et les tissus tubulaires, permettant de nouvelles thérapies et procédures médicales de diagnostic peu invasives en raccourcissant les temps de récupération », soulignent-ils dans leur publication. Ils ont toutefois fait un travail tout particulier sur la possibilité de changement d’échelle, affirment-ils. « Par rapport aux barrières biologiques, les robots à l’échelle millimétrique sont trop gros, ce qui limite leur capacité à pénétrer le s tumeurs et d’autres tissus et diminue leur applicabilité et leur caractère pratique dans l’administration ciblée de médicaments ». Article rédigé par Georges Simmonds pour RT Flash Science Video | | | |
| HP a dévoilé un robot baptisé SitePrint, capable de tracer les plans au sol sur les chantiers de construction. La firme américaine assure que les entreprises qui se le procurent pourront multiplier leur productivité par 10. Si l’on sait que les robots peuvent être utiles dans de nombreux domaines, comme faciliter le travail des employés dans les entrepôts, SitePrint démontre des capacités qui n’avaient jusqu’alors pas été explorées par les constructeurs. En alliant son savoir-faire dans les domaines de l’imprimerie et de la robotique, HP a ainsi mis au point une machine qui pourrait révolutionner le secteur du bâtiment. Le robot imprime de manière autonome les plans de construction sur les sols, afin de permettre aux travailleurs de perdre moins de temps lors de cette étape et de se concentrer davantage sur la construction des différentes structures. Il peut ainsi tracer des traits, mais également des arcs, du texte et des points afin que les plans soient les plus précis possibles. SitePrint est en outre capable d’imprimer sur différentes surfaces comme le béton, le macadam, le contreplaqué, les pavés, ainsi que sur les surfaces non poreuses à l’instar du terrazzo, du vinyle, ou encore du polyépoxyde. Le matériel a déjà été testé dans le cadre de projets allant des aéroports aux hôpitaux, et HP passe désormais à l’étape supérieure. L’entreprise met le robot SitePrint à la disposition des entreprises nord-américaines ce mois-ci dans le cadre d'un programme d'accès anticipé. Son lancement à grande échelle est prévu pour 2023. Article rédigé par Georges Simmonds pour RT Flash New Atlas | | | |
| L’impression 3D permet de fabriquer toutes sortes d’objets, y compris des bâtiments et ouvrages d’art. Or, des innovations – qui concernent surtout les matériaux – apparaissent assez souvent, dont celle d’une équipe de l’Hebrew University de Jérusalem (Israël). Les chercheurs ont présenté leur encre de bois pour impression 3D lors de l’événement American Chemical Society Fall qui a eu lieu du 21 au 25 août 2022. Pour les scientifiques, ce matériau pourrait transformer les méthodes de construction du futur. Il faut savoir que, du fait de sa structure et de la disposition de ses cellules, le bois est naturellement capable de changer de forme une fois sec. Les chercheurs se sont donc intéressés à cette caractéristique pour imprimer en 3D un bol d’un mètre de diamètre. L’encre de bois en question a été déposée de manière circulaire afin que les extrémités du cercle se soulèvent après l’évaporation de l’humidité. Pour mettre au point cette fameuse encre de bois, les scientifiques ont récupéré des copeaux de bois – des chutes issues d’autres constructions – puis les ont broyés. La seconde étape consistait à réfléchir à l’optimisation des paramètres d’impression. Les chercheurs ont ainsi découvert que la vitesse d’impression ainsi que l’orientation des bandes imprimées en 3D influaient grandement sur la capacité de transformation de l’objet. Autrement dit, les paramètres d’impression sont déterminants quant au futur comportement du bois, une fois sec. Outre l’imposant bol, les responsables du projet ont imprimé de petits objets très simples, des ustensiles de cuisine ainsi que des meubles. Toutefois, les travaux se poursuivent car, à terme, l’objectif est d’utiliser la méthode dans le secteur du bâtiment. Or, si nous sommes encore loin d’une telle application, la technique semble néanmoins très prometteuse. En attendant, les chercheurs espèrent modifier une nouvelle fois la forme du bois à l’aide d’autres paramètres. Il s’agit de prouver que le matériau est tout à fait réversible et que, sous certaines conditions, il est possible de modifier une seconde fois la forme de l’objet, notamment grâce à une humidification du bois. Article rédigé par Georges Simmonds pour RT Flash New Scientist | | | |
| Les chercheuses et chercheurs ont placé des nanotubes dans des cellules de mammifères qui utilisent des mécanismes comme l’endocytose, qui sont spécifiques à ces types de cellules. Les bactéries, quant à elles, ne possèdent pas de tels mécanismes et rencontrent d’autres difficultés pour faire passer les particules par leur paroi externe résistante. « Malgré ces obstacles, nous avons réussi, et cela a des implications très intéressantes en termes d’applications ». Les travaux de recherche d’Ardemis Boghossian sont axés sur l’interfaçage de nanomatériaux artificiels avec des constructions biologiques, dont des cellules vivantes. Les technologies "nanobioniques" obtenues combinent les avantages du monde vivant et du monde artificiel. Depuis des années, son équipe travaille sur les applications nanomatérielles de nanotubes de carbone à simple paroi (SWCNT), des tubes d’atomes de carbone possédant des propriétés mécaniques et optiques intéressantes. Grâce à leurs propriétés, les SWCNT conviennent parfaitement à de nombreuses applications innovantes dans le domaine de la nanobiotechnologie. Par exemple, des SWCNT ont été placés à l’intérieur de cellules de mammifères pour surveiller leur métabolisme à l’aide de l’imagerie dans le proche infrarouge. L’insertion de SWCNT dans des cellules de mammifères a également abouti à de nouvelles technologies pour l’administration de médicaments thérapeutiques dans leurs cibles intracellulaires, tandis que dans les cellules végétales elles ont été utilisées pour l’édition génomique. Des SWCNT ont également été implantés dans des souris vivantes pour montrer leur capacité à représenter les tissus biologiques à l’inté rieur du corps. L’équipe d’Ardemis Boghossian et ses collègues du monde entier ont pu "convaincre" des bactéries d’accepter spontanément des SWCNT en les «décorant» de protéines positivement chargées qui sont attirées par la charge négative de la membrane externe des bactéries. Les deux types de bactéries étudiées, Synechocystis et Nostoc, appartiennent à un immense groupe de bactéries, les cyanobactéries, qui obtiennent leur énergie par photosynthèse – comme les plantes. Elles sont également "gram-négatives", ce qui signifie que leur paroi cellulaire est mince, et elles ont une membrane externe supplémentaire que les bactéries "gram-positives" ne possèdent pas. Les chercheuses et chercheurs ont observé que les cyanobactéries intériorisaient les SWCNT par un processus passif, sélectif et dépendant de la longueur. Ce processus a permis aux SWCNT de pénétrer spontanément dans les parois cellulaires aussi bien des bactéries unicellulaires Synechocystis que des longues bactéries multicellulaires en forme de serpent Nostoc. Après cette réussite, l’équipe a souhaité voir si les nanotubes pouvaient être utilisés pour représenter les cyanobactéries – comme c’est le cas avec les cellules de mammifères. « Nous avons créé une configuration sur mesure, la première de ce type, qui nous a permis de représenter la fluorescence spéciale dans le proche infrarouge que nous avons obtenue avec nos nanotubes à l’intérieur des bactéries », explique Ardemis Boghossian. Alessandra Antonucci, ancienne doctorante au laboratoire d’Ardemis Boghossian ajoute : « Lorsque les nanotubes sont à l’intérieur des bactéries, vous pouvez clairement les voir, même si les bactéries émettent leur propre lumière. Cela est dû au fait que les longueurs d’ondes des nanotubes sont loin dans le rouge, l’infrarouge proche. Vous obtenez un signal très clair et stable des nanotubes, ce que vous ne pouvez pas avoir avec un autre capteur de nanoparticules. Nous sommes ravis car nous pouvons désormais utiliser les nanotubes pour voir ce qui se passe à l’intérieur des cellules qui ont été difficiles à représenter en utilisant des particules ou protéines plus traditionnelles. Les nanotubes émettent une lumière, ce qu’aucun matériau vivant naturel ne peut faire, pas à ces longueurs d’onde s, et cela permet vraiment de distinguer les nanotubes dans ces cellules ». Les scientifiques ont pu suivre la croissance et la division des cellules en surveillant les bactéries en temps réel. Leurs découvertes ont révélé que les SWCNT étaient partagés par les cellules filles du microbe diviseur. « Lorsque les bactéries se divisent, les cellules filles héritent des nanotubes ainsi que des propriétés des nanotubes », explique Ardemis Boghossian. « Nous appelons cela la nanobionique héritée. C’est comme avoir un membre artificiel qui vous donne des capacités au-delà de celles que vous pouvez avoir naturellement. Et maintenant, imaginez que vos enfants puissent hériter de ces propriétés de vous à leur naissance. Non seulement on a donné aux bactéries ce comportement artificiel, mais aussi leurs descendants héritent aussi de ce comportement. C’est notre première d émonstration de la nanobionique héritée ». « Un autre aspect intéressant est que lorsque nous plaçons les nanotubes à l’intérieur des bactéries, ces dernières montrent une amélioration significative de leur production d’électricité lorsqu’elles sont éclairées par la lumière », indique Melania Reggente, postdoctorante dans le groupe d’Ardemis Boghossian. « Notre laboratoire travaille maintenant sur la possibilité d’utiliser ces bactéries nanobioniques dans un photovoltaïque vivant ». Les photovoltaïques vivants sont des dispositifs biologiques de production d’énergie qui utilisent des microorganismes photosynthétiques. Bien qu’ils soient encore aux premiers stades de développement, ces dispositifs représentent une véritable solution à la crise énergétique actuelle et pour lutter contre le changement climatique. « La communauté photovoltaïque garde un secret inavouable », confie Ardemis Boghossian. « C’est de l’énergie verte, mais l’empreinte carbone est vraiment élevée ; une quantité importante de CO2 est libérée seulement pour fabriquer les panneaux photovoltaïques les plus classiques. Mais ce qui est intéressant avec la photosynthèse, c’est que non seulement elle utilise l’énergie solaire, mais elle a aussi une empreinte carbone négative. Au lieu de libérer du CO2, elle l’absorbe. Cela résout donc deux problèmes : la conversion de l’énergie solaire et le piégeage du CO2. Et ces cellules solaires sont vivantes. Il n’est pas nécessaire d’avoir une usine pour fabriquer chaque cellule bactérienne ; ces bactéries sont autoreproductibles. Elles absorbent automatiquement le CO 2 pour se reproduire davantage. C’est le rêve de tout scientifique des matériaux ». Ardemis Boghossian imagine un dispositif photovoltaïque vivant qui est à base de cyanobactéries ayant un contrôle automatique sur la production d’électricité, et qui ne dépend pas de l’ajout de particules étrangères. « En termes de mise en œuvre, la difficulté à présent est le coût et les répercussions environnementales de la mise en place à grande échelle de nanotubes à l’intérieur de cyanobactéries ». Ayant pour objectif la mise en œuvre à grande échelle, Ardemis Boghossian et son équipe se tournent vers la biologie de synthèse pour obtenir des réponses : « Aujourd’hui, notre laboratoire étudie la bio-ingénierie de cyanobactéries capables de produire de l’électricité sans nécessiter d’ajout de nanoparticules. Les avancées réalisées en biologie de synthèse nous permettent de reprogrammer ces cellules pour qu’elles se comportent de manière totalement artificielle. Nous pouvons les concevoir de sorte que la production d’électricité soit littéralement dans leur ADN ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| | | L’objectif de la mission Microscope était de mettre à l’épreuve le principe d’équivalence. Il s’agit d’un élément fondamental en physique. Ce phénomène fait que deux corps dont la masse ou la composition diffère tombent quand même dans le vide avec la même accélération. Cela, même s’il s’agit d’une plume et d’un bloc de béton. Ce principe d’équivalence, aussi appelé universalité de la chute libre, sert de test dans la quête d’une théorie universelle englobant la gravitation et la physique quantique. La Relativité Générale paraît incompatible avec le domaine de l’infiniment petit et des particules. La gravitation et la physique quantique semblent aujourd’hui irréconciliables. Pour essayer d’unifier le tout, des théories candidates existent. Or, celles-ci tablent sur une violation du principe d’équivalence, justement. Dès lors, l’expérimenter à des degrés extrêmes permet de challenger les alternatives à la théorie de la relativité. Et pour le moment, Albert Einstein a toujours raison. L’équivalence entre gravitation et accélération tient. Il s’avère qu’une première expérimentation via la mission Microscope a validé le principe d’équivalence à la fin 2017, à un seuil infinitésimal. Ce phénomène a été prouvé à 10-14. Aujourd’hui, les résultats partagés par le Cnes et l’Office national d’études et de recherches aérospatiales (Onera) permettent de descendre d’un cran, à 10-15. Le décalage d’une seule unité dans la puissance paraît anodin, mais il faut avoir en tête que cette opération désigne un nombre qui a quinze chiffres après la virgule. Il a d’ailleurs fallu cinq ans aux physiciens pour "simplement" passer de 10-14 à 10-15. Pour l’Onera et le Cnes, « il faudra certainement attendre très longtemps pour faire mieux ». Cette précision de 10-14 à 10-15 a été obtenue dans le cadre de mesures à travers la gravité terrestre. Le précédent marqueur, avant la mission Microscope, avait été atteint par le groupe de physiciens américains Eöt-Wash en 2012. La mission Microscope avait déjà amélioré la mesure d’un facteur vingt. Un projet d’expérience américain, Step, aimerait porter la marque à 10-18. Dans le cas de la mission Microscope, qui a fonctionné du printemps 2016 jusqu’à l’automne 2018, il s’agissait d’observer le comportement de deux cylindres creux concentriques (un interne en platine et de 400 g, l’autre externe en titane et de 300 g). Ils étaient immobilisés l’un par rapport à l’autre grâce à un système électrostatique et le tout en apesanteur. « Il s’agit de mesurer et de comparer les forces à appliquer à chaque masse pour les maintenir fixes. Dans la mesure où l’on contrôle toutes les autres perturbations, une différence signerait une violation du principe d’équivalence », développait en 2017 Gilles Métris, chercheur au laboratoire Géoazur et co-investigateur principal de la mission. Les fondations du principe d’équivalence sont donc toujours solides, et cela, malgré le temps qui passe, l’arrivée de la physique quantique et l’émergence de théories alternatives. « Rien de moins qu’une nouvelle victoire de la relativité générale proposée par Albert Einstein il y a plus d’un siècle », note le Cnes. Article rédigé par Georges Simmonds pour RT Flash CNES | | | |
| Un nouveau système de recharge des appareils numériques par laser a été développé pour des chercheurs de l’Université de Sejong, en Corée du Sud. Il fonctionne à l’aide d’une lumière infrarouge pour transférer en toute sécurité de la puissance sur des distances allant jusqu’à 30 mètres. Un système de transfert de puissance optique sans fil et à longue portée qui pourrait notamment garantir une transmission de puissance en temps réel, et ce, à l’aide de récepteurs mobiles et fixes. Cette méthode de transfert de puissance est appelée "charge laser distribuée". Elle fournit notamment un éclairage de haute puissance, sans perdre beaucoup de lumière. Ce système est composé de deux parties : un émetteur installé dans une pièce et un récepteur intégré à un appareil électronique. Lorsque ces deux dispositifs sont sur la même ligne, une ligne laser se forme au-dessus de l’air, ou bien dans un espace libre. Cela permet au système de fournir une puissance s’appuyant sur la lumière. Si un obstacle est sur la ligne, le dispositif passe alors en mode alimentation sans danger. L’émetteur est une source d’alimentation optique utilisant un amplificateur de fibre à l’erbium. De son côté, le récepteur est composé d’un rétroréflecteur, une cellule photovol taïque qui convertit le signal optique en énergie électrique, et d’une LED qui s’allume lorsque l’alimentation circule. Les résultats des experts ont finalement montré que ce système pouvait garantir une puissance optique de 400 mW. La puissance électrique est de 85 mW. Cette puissance peut alimenter des petits capteurs et pourrait même être augmentée pour charger des appareils mobiles. « L’utilisation du système de charge laser pour remplacer les cordons d’alimentation dans les usines pourrait permettre d’économiser sur les coûts de maintenance et de remplacement », a déclaré le chef de l’équipe de recherche, Jinyong Ha, de l’Université de Sejong. « Cela pourrait être particulièrement utile dans les environnements difficiles où les connexions électriques peuvent provoquer des interférences ou présenter un risque d’incendie ». Article rédigé par Georges Simmonds pour RT Flash Photonics | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | En cas d’échec des immunomodulateurs, des inhibiteurs de protéasome, des anticorps anti-CD38, les traitements disponibles pour les patients atteints de myélome en progression sont limités, et les résultats en sont généralement médiocres. Mais une communication, lors de l’ESMO 2022, du Professeur Philippe Moreau, médecin spécialiste en hématologie au CHU de Nantes, a montré que le BCMA (B cell maturation antigen), hautement exprimé sur les cellules myélomateuses, représente une nouvelle cible prometteuse. Trois thérapies dirigées contre le BCMA ont été approuvées pour le traitement de patients atteints de myélome ayant reçu immunomodulateurs, inhibiteurs du protéasome et anticorps anti-CD38 : un conjugué anticorps-médicament, le belantamab mafodotin, et 2 thérapies par cellules T réceptrices d'antigènes chimériques (CAR-T). Le teclistamab est un anticorps bispécifique qui cible le CD3 exprimé à la surface des cellules T et le BCMA exprimé à la surface des cellules myélomateuses. La publication rapporte les résultats d'efficacité et de tolérance du teclistamab dans l’étude pivot phase 1-2, portant sur 165 patients atteints de myélome récidivant, triple réfractaires (un immunomodulateur, un inhibiteur du protéasome et un anticorps anti-CD38). Les patients ont reçu du teclistamab en sous-cutané une fois par semaine à la dose de 1,5 mg/ kg, précédée de doses progressives de 0,06 et 0,3 mg / kg tous les 2 à 4 jours. Une hospitalisation et une prémédication ont été nécessaires à chaque progression de dose. Les patients ont poursuivi le teclistamab jusqu'à progression de la maladie ou toxicité inacceptable. Le critère d'évaluation principal de l'étude était le taux de réponse global. Les critères secondaires comprenaient la durée de la réponse, le taux de très bonnes réponses partielles ou mieux, le taux de réponses complètes, le temps d’obtention de la réponse, la survie sans progression et la survie globale. Un total de 98 patients (59,4 %) a reçu au moins 6 mois de traitement par teclistamab, et 79 patients (47,9 %) ont reçu au moins 9 mois de traitement. Des réponses ont été obtenues chez 63 % des patients. Une très bonne réponse partielle ou mieux est survenue chez 58,8 %, et une réponse complète chez 39,4 %. Le délai médian jusqu'à obtention d’une réponse était de 1,2 mois. Une négativité de la maladie résiduelle (au seuil de 10-5 par NGS sur moelle) a été obtenue chez 26,7 % des patients et chez 46 % des patients en réponse complète. La durée médiane de la réponse a été de 18,4 mois, la durée médiane de la survie sans progression, de 11,3 mois et la durée médiane de la survie globale de 18,3 mois. Tous les 165 patients ont déclaré avoir subi un événement indésirable, de grade 3 ou 4 chez 94,5 %. Une neurotoxicité a été signalée chez 14,5 % des patients, le plus souvent de grade 1 ou 2. Au total, le teclistamab a permis d’obtenir dans des myélomes triple-réfractaires une réponse chez 63,0 % des patients, et une réponse complète chez 39,4 %. Article rédigé par Georges Simmonds pour RT Flash ESMO | | | |
| Les acides biliaires sont un grand groupe de dérivés du cholestérol qui sont bien connus pour leur rôle dans la facilitation de l'absorption intestinale des graisses. Une fois réabsorbés par l'intestin, les acides biliaires circulent dans le sang, où ils peuvent fonctionner comme de puissantes hormones. Leur concentration et composition dans le sang changent après chaque repas, ce qui leur permet d'informer les autres organes que de l'énergie est disponible. Malgré le fait que les fonctions des acides biliaires soient bien connues, leurs modulateurs génétiques et environnementaux ne sont pas entièrement déchiffrés et la compréhension de la production et du fonctionnement des entités spécifiques des acides biliaires fait défaut. Dans une nouvelle étude menée par les groupes de Kristina Schoonjans et Johan Auwerx à l'EPFL, avec des collègues de l'UNIL et de l'ETHZ, les scientifiques ont utilisé une "population génétique de référence" de souris (les BXD), qui ressemble à la variation génétique d'une petite population humaine, pour acquérir de nouvelles connaissances sur l'homéostasie des acides biliaires. En combinant des changements environnementaux (alimentation riche en graisses), des données "omiques", de la bioinformatique et des analyses de biologie moléculaire, l'équipe a cartographié des centaines de déterminants génétiques et environnementaux potentiels des acides biliaires, définissant leur impact sur la santé et la maladie. Les chercheuses et les chercheurs ont également mesuré l'abondance et la composition des acides biliaires dans le foie, les selles et le plasma (les principaux tissus de la synthèse, du métabolisme et de la signalisation des acides biliaires, respectivement) chez 36 souches de souris BXD suivant un régime alimentaire normal ou riche en graisses. Les données ont montré que les niveaux d'acides biliaires étaient fortement influencés par l’alimentation. Les acides biliaires jouent un rôle essentiel dans les maladies métaboliques et les scientifiques ont confirmé qu'ils présentent une forte corrélation avec les caractéristiques physiologiques, notamment le poids corporel, la masse graisseuse, le glucose et les taux d'insuline. Ils ont également identifié plusieurs conséquences génétiques liées aux niveaux d'acides biliaires, l'acide tauro-ursodéoxycholique (TUDCA) étant l'exemple le plus marquant. Le TUDCA est connu pour soulager de multiples maladies, mais son récepteur et ses modulateurs restent inconnus. L’équipe a identifié la carboxylestérase 1C (CES1C) comme un nouveau modulateur des niveaux plasmatiques de TUDCA par des approches bioinformatiques et de génétique systémique, et ont validé son rôle en utilisant un modèle in vivo de souris "perte de fonction". « La population de référence de souris BXD est un modèle parfait pour étudier la base génétique de traits complexes et permet d'établir un environnement contrôlé, une condition préalable essentielle à cette analyse », explique Hao Li, premier auteur de l'étude. « Cette approche nous a permis d'identifier CES1C comme un modulateur des niveaux plasmatiques de TUDCA et de découvrir de nombreux autres liens entre les gènes, les acides biliaires et les phénotypes », ajoute la co-première auteure Alessia Perino. « Ce travail, largement sponsorisé par la Fondation Kristian Gerhard Jebsen, pose les bases de l'identification de nouvelles approches pour augmenter les acides biliaires bénéfiques pour la santé, ce qui pourrait ouvrir la voie au développement de thérapies prometteuses pour les maladies métaboliques humaines ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Mieux comprendre et traiter le cancer nécessite de décrypter les rouages de cette maladie – ou plutôt de ces maladies, tant il peut prendre des formes multiples. Un moyen en plein développement est de se pencher sur l’ADN. Toutes nos cellules (y compris les cellules tumorales) ont, dans leur noyau, une molécule d’ADN : sorte de long texte où s’enchaînent notamment les gènes et toute l’information génétique qui contribue à nous définir. Les cancers résultent de modifications de ce texte génétique (on parle de mutations de sa "séquence") survenant dans une cellule, qui peuvent être particulièrement massives et entraîner sa multiplication incontrôlée. Se développe alors une tumeur qui, alors qu’elle grandit et évolue, peut envahir l’organisme. Les progrès récents des techniques de séquençage "à haut débit" (permettant la lecture rapide du texte génétique) ont permis d’identifier les modifications se cachant derrière de nombreux cancers. Désormais, il est possible de répertorier le "catalogue" de mutations d’une tumeur afin d’établir sa carte d’identité : un atout considérable pour mieux appréhender la nature du cancer en question, ses origines, ses rouages internes et son pronostic. Or, une meilleure compréhension de la maladie contribue au développement de traitements plus efficaces. Mais l’information génétique ne se situe pas que dans le texte inscrit dans notre ADN… Un second niveau de codage, dit "épigénétique", a été identifié, dont l’étude s’est développée ces dernières décennies. L’épigénétique est à la génétique ce que la ponctuation est à une phrase : le sens d’une phrase sera différent selon la présence et la localisation de virgules, tirets ou parenthèses… D’un point de vue chimique, nos "virgules génétiques" peuvent prendre la forme d’ajout (ou de retrait) de groupements d’atomes spécifiques – en l’occurrence des méthyls (CH3). La lecture de ce « code » épigénétique permet d’établir un autre type de carte d’identité : le méthylome. Il y a plusieurs niveaux d’information dans l’ADN : le texte génétique (écrit avec les quatre "lettres" A, T, C et G), qui constitue le génome, et les modifications épigénétiques (notamment les méthylations) qui viennent moduler le message initial. NIH, CC BY-SA Là encore, son étude fine et sa comparaison avec des méthylomes de cellules saines et tumorales sont riches en informations : si la lecture de la séquence (du texte) génétique renseigne sur les mécanismes de croissance exubérante de la cellule cancéreuse, celle du méthylome précise la nature du cancer et son origine. In fine, le décryptage de ces deux niveaux de données complémentaires contribue à mieux caractériser le cancer et à choisir les traitements anticancéreux les plus adaptés. Du fait de son coût et du matériel nécessaire pour cartographier la ponctuation de l’ADN, cette technique n’est pour l’heure mise en place que dans certains centres d’oncologie médicale spécialisés. En clinique, c’est surtout en neuro-oncologie (tumeurs du cerveau et de la moelle), pionnière dans le domaine, que son utilisation est la plus aboutie – notamment dans les cas de diagnostic difficile. L’Organisation mondiale de la santé (OMS) recommande d’ailleurs son étude dans le diagnostic de nombreuses tumeurs cérébrales depuis 2021. Si d’autres types de cancer (sarcomes, développés à partir des os, des muscles, de la graisse…) commencent également à être étudiés par leur méthylome, les résultats sont encore préliminaires. L'analyse des méthylomes repose sur la bio-informatique et nécessite le développement d’algorithmes (formules de calcul) d’intelligence artificielle (IA). L’idée de base est simple : il faut classer ensemble les tumeurs qui ont la même ponctuation (donc les mêmes variations au niveau épigénétique), à l’instar d’un jeu de 7 familles où le joueur cherche à rassembler les individus d’une même famille. Une large base de données développée par une équipe de l’Université d’Heidelberg rassemble déjà les profils de méthylation de presque 100 000 tumeurs cérébrales, classées en 80 familles ou sous-familles. En libre accès, elle permet l’envoi de nouvelles données qui sont analysées en ligne gratuitement. L’avantage est double puisque le logiciel propose au médecin pathologiste un classement de la tumeur envoyée, et l’équipe d’Heidelberg enrichit sa base de données, rendant les algorithmes d’IA plus performants – de façon générale, plus un algorithme analyse de tumeurs, plus les classements qu’il propose sont fiables. Cette forme de projet collaboratif international bénéficie ainsi au plus grand nombre : patients, médecins et chercheurs. Malgré les limites de l’IA, l’analyse du méthylome représente bien un progrès considérable dans le diagnostic des tumeurs cérébrales, notamment de l’enfant – chez qui elles sont beaucoup plus variées que chez l’adulte. En France, les Centres hospitalo-universitaires (CHU) référents en neuro-oncologie s’équipent progressivement afin que, dans les années à venir, une carte d’identité épigénétique puisse être établie pour chaque tumeur cérébrale (en plus de la carte d’identité génétique déjà réalisée). Article rédigé par Georges Simmonds pour RT Flash The Conversation | | | |
| Grâce à la greffe de cellules souches hématopoïétiques, il est à présent possible de restaurer l’hématopoïèse — processus de formation de toutes les lignées cellulaires sanguines — après les traitements agressifs de certains cancers Cette greffe permet aux lignées sanguines de s’autorenouveler tout au long de la vie du receveur. Il reste cependant compliqué de trouver un donneur compatible et, le plus souvent, il s’agit donc d’un parent proche. En effet, le nombre de donneurs est restreint, le don de moelle osseuse étant peu fréquent. D’ailleurs, en France, plus de 2000 personnes sont en attente de greffe et seulement 50 banques mondiales dans le monde travaillent en collaboration. Sans compter que les donneurs potentiels sont encore plus limités lorsqu’il s’agit d’une ethnie particulière. C’est pourquoi, créer in vitro des cellules souches, sans recours à des donneurs, est un projet ambitieux et crucial pour la médecine moderne. Récemment, une équipe de chercheurs de l’Université de Nouvelle-Galles du Sud (UNSW) a démontré comment un dispositif microfluidique qui imite le cœur embryonnaire peut produire des précurseurs de cellules souches sanguines, ce qui pourrait permettre de les concevoir à la demande. Depuis plusieurs années, les recherches se multiplient afin de produire artificiellement les cellules souches sanguines, mais sans succès. Le Docteur Jingjing Li, auteur principal de la nouvelle étude, explique : « Une partie du problème est que nous ne comprenons toujours pas pleinement tous les processus en cours dans le microenvironnement pendant le développement embryonnaire qui conduisent à la création de cellules souches sanguines vers le 32e jour ». Concrètement, ici les chercheurs ont mis au point un système microfluidique de 3cm sur 3cm capable de pomper des cellules souches sanguines produites à partir d’une lignée de cellules souches embryonnaires, pour imiter le fonctionnement du cœur d’un embryon. Le Docteur Li déclare : « Nous avons créé un appareil imitant les battements du cœur et la circulation sanguine et un système d’agitation orbitale qui provoque une contrainte de cisaillement — ou friction — des cellules sanguines lorsqu’elles se déplacent dans l’appareil ». Le dispositif microfluidique imite le rythme cardiaque et la circulation sanguine d’un embryon. Les canaux d’ensemencement cellulaire sont remplis de colorant alimentaire rouge, tandis que les canaux de contrôle de la contraction ventriculaire cardiaque et de la valve de circulation sont respectivement remplis de colorant alimentaire bleu et vert. Ce système a favorisé l’hématopoïèse, c’est-à-dire le développement de cellules souches sanguines précurseurs pouvant se différencier en divers composants sanguins — globules blancs, globules rouges, plaquettes et autres. De plus, l’appareil a créé les cellules tissulaires de l’environnement cardiaque embryonnaire, qui est crucial pour ce processus, avec la formation par exemple de la structure artérielle. Robert Nordon, co-auteur de l’étude, explique : « Les cellules souches sanguines, lorsqu’elles se forment dans l’embryon, se forment dans la paroi du vaisseau principal appelé aorte. En sortant de l’aorte, elles intègrent la circulation, puis vont dans le foie et forment ce qu’on appelle l’hématopoïèse définitive, ou la formation définitive du sang ». Concrètement, avec leur système cardiaque artificiel, les chercheurs sont parvenus à recréer ce processus aortique, avant l’intégration à la circulation sanguine générale (quand les cellules seront transférées au receveur dans le cas présent). Les chercheurs espèrent que leur découverte marquera une étape décisive vers la résolution des défis limitant les traitements médicaux régénératifs actuels : pénurie de cellules souches sanguines de donneurs, rejet des cellules de tissus de donneurs et problèmes éthiques entourant l’utilisation d’embryons de FIV pour obtenir les cellules souches. Le Docteur Li a ajouté : « Nous travaillons à la fabrication à grande échelle de ces cellules à l’aide de bioréacteurs ». Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Dès le début de la pandémie, il est apparu que la Covid-19 était plus sévère chez les adultes que chez les enfants, sans qu’aucune explication évidente puisse être avancée. Aussi, trois équipes de chercheurs se sont regroupées dès le premier confinement pour se pencher sur cette question. « Les infections par le SARS-CoV‑2 débutent au niveau des voies aériennes supérieures (nez, gorge...). Les formes graves surviennent après dissémination du virus au niveau des voies aériennes inférieures (dans les poumons) », explique Harald Wodrich, l’un des scientifiques qui a participé à ce travail. « Nous avons donc supposé que des phénomènes distincts se produisent précocement chez l’adulte et chez l’enfant ». En r&eacut e;unissant leurs expertises en virologie, en imagerie et en pneumologie, ces scientifiques ont pu identifier plusieurs particularités pédiatriques. Pour étudier la dynamique de l’infection et de la réponse immunitaire dès les premiers jours après le contact avec le virus, les chercheurs ont utilisé des échantillons d’épithéliums respiratoires (les muqueuses qui recouvrent la surface des voies aériennes) prélevés chez des adultes ou des enfants. Ils ont utilisé ces prélèvements pour reconstituer des épithéliums fonctionnels, placés dans des supports qui permettent de mimer les conditions physiologiques, à l’interface d’un milieu de culture (liquide) et de l’air extérieur. Ces épithéliums ont ensuite été infectés par le SARS-CoV‑2. « Chez l’adulte, nous avons observé une cinétique d’infection des cellules plus rapide que chez les enfants. Plus important encore, nous avons noté qu’après 3 à 4 jours, les cellules qui bordent la face externe de l’épithélium (cellules épithéliales) fusionnent avec des cellules plus profondes (cellules basales) pour former de grands amas qui contiennent de nombreuses copies du virus. Ces amas, appelés “syncytia”, sont capables de se détacher de l’épithélium. Ils peuvent alors migrer jusque dans les voies aériennes inférieures. Or, leur présence a par ailleurs été décrite dans les poumons de patients décédés de la Covid-19. Cette libération compacte du virus pourrait donc contribuer à la sévérité de la maladie », explique l e chercheur. Parallèlement, les scientifiques ont observé que certains épithéliums obtenus à partir de prélèvements réalisés chez des enfants sont plus résistants à l’infection, avec une réponse inflammatoire atténuée et une sécrétion d’interféron III (IFN-III) plus rapide que chez les adultes. La formation de syncytia semblait également moins fréquente, probablement en raison du délai plus lent d’infection. Pour mieux appréhender le rôle de l’IFN-III dans la réponse à l’infection, les chercheurs ont conduit une autre série d’expériences : « Nous avons constaté que délivrer cet interféron au niveau d’un épithélium adulte réduit la réplication virale et que, à l’inverse, supprimer le gène codant pour l’IFN-III favorise la progression du virus et la formation de syncytia ». L’ensemble de ces observations pourrait expliquer les différences de susceptibilité à l’infection par le SARS-CoV‑2 liées à l’âge, même si quelques adultes ont une réponse proche de celle des enfants et inversement. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| C'est une avancée vertigineuse que viennent de réaliser des chercheurs de Stanford : ils ont réussi à transplanter avec succès un "mini cerveau humain"(un ensemble complet de cellules cérébrales opérationnelles) dans un cerveau de rat. « Nous pouvons désormais étudier le développement sain du cerveau ainsi que les troubles cérébraux, sans avoir besoin d'exciser des tissus d'un cerveau humain », a déclaré le Professeur Pasca qui dirige ces travaux. « Nous allons également pouvoir utiliser ces organoides cérébraux humains pour tester bien plus facilement et efficacement de nouveaux médicaments et thérapies géniques contre les maladies neurodegeneratives », ajoute le Professeur Pasca... Dans cette étude, les cellules de la peau humaine ont d'abord été transformées en cellules souches, qui peuvent se différencier en la plupart des quelque 200 types de cellules du corps. Ces cellules se sont différenciées en plusieurs types de cellules cérébrales et se sont multipliées pour former des organoïdes ressemblant au cortex cérébral - la couche la plus externe du cerveau humain. Des variations dans ce protocole ont permis à Pasca et à ses collègues de générer des organoïdes représentant une douzaine de régions cérébrales distinctes. « Nous avons créé des circuits de plus en plus compliqués dans un plat en utilisant des organoïdes et des combinaisons sophistiquées de ceux-ci, appelés assembloïdes . Mais les neurones ainsi obtenus sont en retard dans leur développement par rapport à ce que vous verriez dans un cerveau humain », souligne le Professeur Pasca. Les receveurs de transplantation dans l'étude étaient des ratons âgés de deux à trois jours seulement - l'équivalent de la petite enfance chez un humain. Après environ deux mois de culture, des organoïdes ressemblant étroitement au cortex cérébral humain ont été transférés dans le cerveau de jeunes rats - près de 100 au cours de l'étude. Les organoïdes ont été placés au même endroit dans le cerveau de chaque rat afin que leur développement puisse être plus facilement surveillé. Les cellules des rats ont rapidement migré dans les tissus humains : les cellules endothéliales du rat ont pénétré dans les implants cérébraux humains et se sont assemblées dans les vaisseaux sanguins, qui fournissent des nutriments et des substances de signalisation aux cellules humaines. Des cellules immunitaires résidentes dans le cerveau du rat ont également peuplé la greffe humaine. Les organoïdes humains implantés ont survécu, p rospéré et grandi. Mesurant à peine un demi centimètre lorsqu'ils ont été transplantés, ils se sont étendus au point où, six mois plus tard, ils occupaient un bon tiers de l'hémisphère du cerveau du rat dans lequel ils avaient été implantés…. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Les ingénieurs du MIT ont conçu un patch adhésif qui produit des images échographiques du corps. L'appareil de la taille d'un tampon adhère à la peau et peut fournir une imagerie échographique continue des organes internes pendant 48 heures. Actuellement, l'imagerie par ultrasons nécessite un équipement volumineux et spécialisé disponible uniquement dans les hôpitaux et les cabinets médicaux. Mais cette innovation du MIT pourrait rendre la technologie aussi simple et accessible que l'achat de pansements en pharmacie. Les chercheurs ont appliqué les autocollants sur des volontaires et ont montré que les appareils produisaient des images en direct à haute résolution des principaux vaisseaux sanguins et des organes plus profonds tels que le cœur, les poumons et l'estomac. Les autocollants maintenaient une forte adhérence et capturaient les changements dans les organes sous-jacents lorsque les volontaires exécutaient diverses activités, notamment s'asseoir, se tenir debout, faire du jogging et faire du vélo. Lorsque ces dispositifs pourront fonctionner sans fil, les autocollants à ultrasons pourraient être transformés en systèmes d'imagerie portables que les patients pourraient emporter chez eux depuis le cabinet d'un médecin ou même acheter dans une pharmacie. « Nous envisageons quelques patchs collés à différents endroits du corps, et les patchs communiqueraient avec votre téléphone portable, où des algorithmes d'IA analyseraient les images à la demande », explique l'auteur principal de l'étude, Xuanhe Zhao, professeur de génie mécanique et civil et génie environnemental au MIT. Le nouvel autocollant à ultrasons de l'équipe du MIT produit des images de haute résolution sur une plus longue durée en associant une couche adhésive extensible à un réseau rigide de transducteurs. Cette combinaison permet à l'appareil de se conformer à la peau tout en maintenant l'emplacement relatif des transducteurs pour générer des images plus claires et plus précises. La couche adhésive de l'appareil est constituée de deux fines couches d'élastomère qui encapsulent une couche intermédiaire d'hydrogel solide, un matériau principalement à base d'eau qui transmet facilement les ondes sonores. Article rédigé par Georges Simmonds pour RT Flash MIT | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Une rame Coradia iLint non modifiée d'Alstom, roulant à l’hydrogène, a réalisé un trajet record à travers l’Allemagne, de Bremervörde à Munich. De quoi encore convaincre les autorités nationales ou régionales qui gèrent les transports publics d'acheter ces trains. Une performance qui démontre une nouvelle fois l'intérêt de l'hydrogène pour motoriser les trains qui roulent habituellement en diesel. Des trains encore très nombreux en Europe. Alstom précise qu'un train Coradia iLint de série (n’ayant subi aucune modification technique) a parcouru la distance de 1175 km kilomètres sans ravitaillement, émettant seulement de la vapeur d’eau. Un record. Le train utilisé sur ce trajet a été extrait de la flotte de l'opérateur allemand LNVG qui est aujourd'hui exploitée commercialement sur le réseau d’evb depuis août 2022. Pour ce projet, Alstom s’est associé à Linde, une société spécialisée dans le gaz et l’ingénierie, pour la fourniture d’hydrogène. « Grâce à ce voyage, nous avons apporté une nouvelle fois la preuve que nos trains à hydrogène ont toutes les caractéristiques requises pour remplacer les trains diesel », s'enthousiasme Henri Poupart-Lafarge, PDG d'Alstom, le fabricant de ces trains. De quoi encore convaincre les autorités nationales ou régionales qui gèrent les transports publics d'acheter ces trains, certes plus chers que des rames classiques au diesel, mais bien plus vertueuses et qui s'inscrivent dans la transition énergétique. Le nouvel engouement pour le train combiné aux questions environnementales dope la demande européenne pour ces trains de nouvelle génération. « A horizon 2035, environ 15 à 20 % du marché européen régional pourrait fonctionner à l'hydrogène », confirme à l'AFP Alexandre Charpentier, expert ferroviaire chez Roland Berger. Outre l'Allemagne qui dispose désormais d'une flotte de 14 trains régionaux, fournis par le groupe français, l'Italie, la Suède et la France ont passé commande. En France, l'industriel a reçu en avril 2021 une première commande de 12 trains par les régions Bourgogne-Franche-Comté, Occitanie, Grand Est et Auvergne-Rhône-Alpes (3 trains commandés par chaque région plus 2 trains en option pour la région Grand Est). Mais, selon les informations communiquées par l'entreprise, il faudra attendre fin 2023 pour voir la circulation d’un premier train en essais, le lancement de la fabrication de série et la mise en place des infrastructures hydrogène (stations de ravitaillement, notamment). Pour autant, le train à hydrogène n'est qu'un élément de l'écosystème indispensable à son fonctionnement. Principale problématique : le ravitaillement des trains. Alstom et Hynamics ont ainsi signé en novembre 2021 un partenariat afin de « définir un standard international de ravitaillement qui permettra de limiter l'immobilisation des trains à hydrogène lors de leur remplissage ». Article rédigé par Georges Simmonds pour RT Flash Alstom | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|