| | Edito VINGT ANS DEJÀ…
Il y a 20 ans, en mai 1998, je mettais en ligne le premier numéro de RT Flash. J’avais pris cette décision car les lecteurs de mon ouvrage « DES PYRAMIDES DU POUVOIR AUX RÉSEAUX DE SAVOIRS : comment les nouvelles technologies de l’information vont aider la France à entrer dans le XXIe siècle » que j’avais publié, en 1997, après avoir remis sur le bureau du Sénat le rapport sur les nouvelles technologies et l’avenir de la France que m’avait confié Alain Juppé, étaient nombreux à me demander de prolonger ce travail de vulgarisation. J’ai pu prendre cette décision car mes deux principaux collaborateurs, alors assistants parlementaires (je fus sénateur pendant 18 ans), Mark Furness et Monique Girard, avaient alors spontanément accepté de m’accompagner semaine après semaine dans cette aventure exaltante. Dès le départ, j’avais fixé des règles qui aujourd’hui sont toujours respectées : gratuité totale et absence de publicité. Ces règles sont particulièrement strictes mais ce sont les seules qui nous ont permis de reprendre des informations ou des images souvent mises sous copyright sans que les auteurs qui se seraient rebellés si nous en avions fait commerce ne nous adressent le moindre reproche. À ma connaissance, nous sommes la seule lettre électronique, gratuite et sans publicité, à être ainsi publiée, semaine après semaine, en France, depuis 20 ans. Aujourd’hui, le RT Flash que vous êtes en train de lire porte le n° 950… Mais lorsqu’en 2004 je suis devenu sénateur honoraire, tout ce bel édifice aurait pu s’écrouler si mes deux assistants qui n’allaient plus être rémunérés par le Sénat m’avaient dit : « maintenant tout s’arrête ». Eh bien non. Aucun de nous trois n’étant rémunéré, nous avons tous trois continué semaine après semaine à réserver plusieurs heures de notre temps pour pouvoir préparer et mettre en ligne RT Flash. Je dois adresser aussi un grand Merci à mon fils Xavier qui, depuis 2004, assure gratuitement le fonctionnement et la maintenance du site Internet grâce auquel vous pouvez lire RT Flash chaque semaine. Je dois donc adresser un grand merci à Monique, Marc et Xavier car sans eux RT Flash n’existerait plus. Quand en 1998 j’ai mis en ligne le premier RT Flash, j’avais par ailleurs créé dans les mêmes temps le « Groupe de Prospective du Sénat » qui allait en quelques années devenir l’un des groupes d’études et d’amitié réunissant le plus grand nombre de membres de la Haute Assemblée. C’est la raison pour laquelle j’ai donné dès 1999 une vision Prospective à mes éditos. Alors que près de 20 ans se sont écoulés depuis le premier numéro de RT Flash, je vous invite à relire trois de mes éditos écrits en 1999 (En 1998, je n’avais pas encore choisi ma ligne éditoriale). 1°/ Transports urbains du Futur : vers la fin des grandes infrastructures : Publié le 18 septembre 1999 (Voir Edito Transports urbains du Futur : vers la fin des grandes infrastructures). Dans cet édito, j’annonçais que les voitures entièrement automatiques commenceraient à circuler dans nos villes en 2020. Nous y arrivons. Le gouvernement vient d’annoncer il y a quelques jours qu’il ferait tout pour autoriser la circulation de voitures autonomes sur les routes françaises dès 2020. C’est après avoir écouté et lu les publications de nombreux chercheurs, un peu partout dans le monde, que je rédige mes éditos de Prospective. Je n’ai pas le génie de Jules Verne et par contre je suis très sensible aux signaux faibles. Les nombreuses publications des chercheurs dans le monde entier, universellement diffusées maintenant sur Internet, sont indubitablement les signaux les plus importants pour imaginer quel sera notre monde de demain. 2°/ je vous invite aussi à lire un second édito mis en ligne le 11 novembre 1999. Je l’avais intitulé : « les mondes virtuels : la drogue du XXIe siècle » (Voir Edito Les mondes virtuels : la drogue du XXIe siècle). Ayant lu cet édito, de hauts dirigeants d’IBM m’avaient invité à rencontrer leurs cadres de recherche. Cette rencontre avait été passionnante. 3°/ enfin, si vous avez encore un peu de temps, je vous invite à lire un édito au titre prémonitoire : « l’homme peut-il créer des intelligences artificielles qui le dépassent » que j’ai mis en ligne le 27 novembre 1999 (Voir Edito L'homme peut-il créer des intelligences artificielles qui le dépassent). Près de deux décennies plus tard, alors que le monde a été totalement bouleversé depuis cette date, je ne changerai pas une phrase si j’avais à le rédiger aujourd’hui. Et oui ! Il est pourtant bien vrai que le monde a été totalement bouleversé dans ces 20 dernières années. Quand je publiais le premier numéro de RT Flash, en 1998, le Smartphone n’existait pas et l’Internet en était encore à son âge préhistorique. Maintenant, quel que soit l’endroit où vous vous trouvez dans le monde, le premier être humain que vous rencontrez est en train non seulement de regarder un écran mais aussi de communiquer, de jouer, d’échanger avec le reste du monde. En 1998, hormis Microsoft et Apple, mais alors spécialisés dans les domaines des OS, des logiciels et du hard, aucun des membres du GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et plus encore ceux du BATX (Baïdu, Alibaba, Tancent, Xiaomi) n’existait. Et maintenant ils dominent le monde. Mais dans 20 ans, le domineront-ils encore ? Rien n’est certain. Les évolutions dantesques qui vont être apportées par le Cloud et l’Intelligence Artificielle dans ces deux prochaines décennies vont faire que la vie de tous les êtres humains ne sera plus la même dans 20 ans. Ainsi, en 2038, l’Intelligence Artificielle se sera glissée dans chaque être humain, non pas pour le dominer ou même le faire disparaître comme voudraient nous faire croire certains, mais bien pour l’aider à s’instruire, à se soigner, à travailler, à se distraire, à vivre plus longtemps : pour être plus heureux. L’Intelligence Artificielle aidera les enfants dès leur plus jeune âge à stocker tout ce qui leur sera enseigné et tout ce qu’ils vivront. Selon les circonstances, cette Intelligence Artificielle personnelle ira spontanément chercher dans ses stocks de données l’élément, la réponse qui permettra de faire face à toute situation. Cette même Intelligence Artificielle nous aidera à mieux vivre et à rester en vie plus longtemps. Cette intelligence artificielle qui connaîtra chacune de nos cellules prendra les mesures adéquates dès que l’une d’entre elles se mettra à dysfonctionner. Nous n’avons pas encore conscience combien les milliards et les milliards de milliards d’informations contenues dans le Cloud vont changer le monde et la vie de chacun d’entre nous. Dans 20 ans, nous pourrons comprendre et être compris par tous les autres êtres humains. La barrière des langues, source de si nombreuses incompréhensions, aura définitivement disparu. Mieux encore : tout laisse à penser qu’après plusieurs siècles de totale mésentente, l’Homme et la Nature vont à nouveau se rapprocher. Ainsi, pour se nourrir ou se soigner, l’Homme fera de moins en moins appel à cette chimie qui a tant fait souffrir la Nature quand il aura compris que la réponse à tous ses problèmes lui est offerte par cette Nature. Ainsi, pour soigner des maladies qui tuent encore des millions d’êtres humains chaque année, nous comprendrons enfin les processus qui permettent à des dizaines de millions d’autres êtres humains, touchés par les mêmes virus, les mêmes dérèglements, les mêmes cancers, de trouver en eux la solution sans faire appel à des myriades de médicaments. Quand bientôt nous aurons compris ces processus, et la lecture de RT Flash, semaine après semaine, vous permet de constater que nous allons de plus en plus vite sur cette voie, l’Intelligence Artificielle qui alors surveillera chacune de nos cellules appliquera ces processus naturels si de lui-même notre organisme ne sait pas les lancer. Il en sera de même pour les plantes et les animaux. Là aussi l’Intelligence Artificielle aidera les plantes et les animaux à faire face à toutes les maladies qui, actuellement, les détruisent et pour lesquelles l’homme n’a su, jusqu’à ce jour, qu’inventer des potions chimiques fort destructrices qui tuent bien au-delà de la maladie qu’elles devraient combattre. Dans 20 ans, tout laisse à penser que le Smartphone, tel que nous le connaissons, n’existera plus. Il aura été remplacé par des images virtuelles qui seront créées, avec le son et les sens concernés (l’odorat, le goût, le toucher), dans notre cerveau et projetées dans notre champ visuel. Certains auront peur, je le sais, du monde que j’annonce pour demain. C’est pourquoi, si les GAFAM et les BATX veulent encore exister dans 20 ans, il leur faut donner la certitude que l’Intelligence Artificielle, associée à chaque être humain, restera entièrement privée et ne servira jamais, sans son consentement, à aucune exploitation commerciale ou médiatique. Il y a un tout nouveau monde qui doit être inventé pour que l’Homme l’accepte. Dans ce nouveau Monde, sachons-le dès maintenant : rien ne sera comme avant. Les Démocraties telles que nous les connaissons n’existeront plus. Les Peuples auront toujours des élus mais ceux-ci, qu’ils soient réels ou virtuels, seront reliés en permanence à tous leurs électeurs et la moindre loi, le moindre amendement aura reçu l’assentiment de tous les citoyens grâce à l’Intelligence Artificielle avant d’être adopté. L’école elle aussi ne sera plus la même. Certes les cours seront toujours donnés par des êtres humains mais leurs propres Intelligences Artificielles fera que la qualité du cours ne sera plus directement liée aux compétences particulières de chaque maître. Et souvenons-nous, les jeunes enfants seront alors assistés par leur propre Intelligence Artificielle qui stockera des milliards de données qui seront mises à la disposition de ce futur Homme quand, tout au long de sa vie, il en aura besoin. Toutes les activités humaines, qu’elles soient professionnelles, personnelles ou de distraction, seront profondément bouleversées par la montée en puissance de l’Intelligence Artificielle auprès de chaque être humain. Dans 20 ans, le monde de l’Energie aura été fondamentalement bouleversé. Chaque être humain produira, grâce au soleil, au vent, à la mer, à la Nature, sa propre énergie ou consommera l’énergie qui sera produite naturellement par un autre être humain et qui arrivera jusqu’à lui avec un protocole de distribution comparable à celui de l’Internet. Cette révolution dans la production et la consommation de l’Energie aura alors fondamentalement changé le destin de tous les agriculteurs du Monde. Chacun d’entre eux gagnera alors plus d’argent avec la vente de l’énergie qu’il produira naturellement sur toutes les surfaces dont il dispose, et qui aujourd’hui ne sont pas exploitables, qu’avec les aliments qu’il fournira à toute l’humanité et dont les prix pourront baisser grâce à cette &e acute;volution vertueuse. Mais une autre évolution fondamentale ouvrira un large débat entre tous les Pays avant que ces 20 prochaines années s’écoulent. Beaucoup de Pays, souvent parmi les plus riches mais aussi les plus égoïstes, parce que plus vieux, n’accepteront plus que d’autres êtres humains entrent sur leurs territoires sans qu’ils en aient connaissance et donnent leur accord. Or, dans moins de 20 ans, on pourra implanter dans chaque être humain une nano-puce qui précisera, à 10 cm près, où chacun se trouve sur notre planète. Grace à un cryptage quantique, cette nano-puce sera inviolable et il sera physiquement impossible de la retirer. Quand Trump III, avec l’accord tacite des européens vieillissants empêtrés dans les populismes à cause des immigrations clandestines, décidera que dans un an, tout être humain voulant pénétr er sur le territoire des Etats Unis devra avoir cette nano-puce enfouie au plus profond de lui-même, que feront les autres pays du Monde ? Entre temps, Trump II aura su convaincre tous ses concitoyens de s’équiper de cette nano-puce pour enrayer cette immigration illégale des « latinos » qui actuellement perturbent tellement les Etats du Sud. Bien au-delà de l’immigration clandestine, ces nano-puces changeront fondamentalement le fonctionnement de nos sociétés. Ainsi, le responsable de tout meurtre, de toute agression, de tout vol sera immédiatement retrouvé. Mais chacun ressent en cet instant que cette généralisation de l’implantation des nano-puces sur tous les êtres humains sera une véritable révolution. Les GAFAM ou les BATX (ou leurs remplaçants) se battront pour avoir accès aux données fournies par ces nano-puces car connaître l'activité de chaque être humain à chaque instant de sa vie va devenir la matière première la plus précieuse pour le commerce du Futur.
C’est là que se jouera l’Avenir des Démocraties. Soit elles seront assez fortes pour garantir à chaque être humain que ces données resteront totalement secrètes tant qu’il n’aura pas commis de délit ou crime, et elles sortiront alors grandies auprès de tous les citoyens du Monde. Soit elles se plieront devant les géants mondiaux du Cloud et de l’Intelligence Artificielle, et le temps des Démocraties sera alors fini. Je vous dis : A dans 20 ans … Peut-être René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Information et Communication | |
| | | Des chercheurs de l’Université McGill à Montréal travaillent sur une intelligence artificielle qui serait capable de déceler les premiers signes de la maladie d’Alzheimer, aussi infimes soient-ils, des années avant que l’entourage d’une personne s’en rende compte. De minimes altérations du cerveau peuvent causer de subtils changements de comportement ou des habitudes de sommeil, des années avant que les personnes extérieures ne commencent à identifier la maladie à cause des pertes récurrentes de mémoire. Des chercheurs pensent que l’intelligence artificielle pourrait reconnaître ces changements très tôt et identifier les personnes à même de développer les formes les plus avancées de la maladie. Un boîtier blanc contenant un ensemble de capteurs serait installé dans la chambre d’une personne à risque pour surveiller ses faits et gestes et ses habitudes. Ce dispositif contiendrait également un ordinateur disposant d’un ensemble d’algorithmes pour analyser la personne et poser un diagnostic. Ensuite, ces données seraient stockées et comparées à des modèles types de comportement de personnes atteintes de maladies. Mais le dispositif ne s’arrête pas à l’analyse comportementale. Grâce à des capteurs spécifiques, le dispositif est aussi en mesure de surveiller l’activité cérébrale d’un patient en utilisant la tomographie par émission de positrons (PET scan pour « positron emission tomography » en anglais), et donc détecter les premiers signes de la maladie d’Alzheimer, et même de comprendre ses évolutions au cas par cas. Le travail d’analyse intelligent des algorithmes de deep learning devrait donc aider les médecins à trouver de nouvelles méthodes de (peut-être) soigner la maladie. "Lorsqu’un radiologue lit un scan, il est impossible de dire si une personne évoluera vers la maladie d’Alzheimer em>", dit Pedro Rosa-Neto, neurologue à l’Université McGill à Montréal. Les personnes atteintes de la maladie d’Alzheimer n’ont pas toutes les mêmes symptômes et certains cas peuvent s’aggraver plus rapidement que d’autres. Les sociétés pharmaceutiques sont également intéressées par ces algorithmes de deep learning dans le but de trouver des patients pouvant bénéficier de traitement expérimentaux. L’intelligence artificielle aurait dans ce cas pour mission de trouver le profil de personnes ayant les symptômes correspondant à chaque type de traitement dans une base de donnée regroupant de nombreux dossier médicaux. Si le système fonctionne, l’avancée serait majeure. À l’heure actuelle, il n’existe aucun moyen de diagnostiquer rapidement et efficacement la maladie d’Alzheimer. L’utilisation d’un tel système permettra aux médecins de dépister la maladie bien plus précocement, et d’adapter les traitements plus précisément. Article rédigé par Georges Simmonds pour RT Flash Presse Citron | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Les réseaux organo-métalliques (MOF pour metal-organic framework) sont des matériaux de nouvelle génération composés d’ions métalliques ou de groupes d’atomes métalliques reliés entre eux par des liens organiques et qui forment des structures à une, deux ou trois dimensions. Ils possèdent une très grande surface de contact interne comme une sorte d’éponge cristalline qui peut capter, stocker et relarguer d’autres composés chimiques. Dans ces travaux, des MOF ont été testés pour filtrer le sel et les ions de l’eau de mer de manière efficace et beaucoup moins énergivore que les membranes utilisées actuellement. Les recherches ont été menées par des chercheurs australiens de la Monash University (Melbourne) et du CSIRO en collaboration avec l’Université du Texas (Austin – Etats-Unis). Pour mettre au point leurs filtres sélectifs à base de MOF, les chimistes se sont inspirés de la structure et du fonctionnement des membranes cellulaires, capables de trier des ions aux diamètres proches et de les faire circuler très rapidement. L’objectif était de réussir, comme le font les membranes, à être sélectif sur plusieurs ions monoatomiques dont la valence et la taille sont similaires tels que les ions Li+, Na+, et K+. S’appuyant sur les récentes recherches concernant les membranes MOF munies de pores de l’ordre de l’ångström (0,1 nm) pour des technologies de séparation et de perméation des gaz ou de solutions, ces travaux ont montré qu’une membrane ultrafine de type ZIF-8 (ZIF pour zeolitic imidazolate framework) pouvait ainsi transporter très rapidement et sélectivement des ions lithium parmi d’autres ions alcalins tels que NA+, K+ et Rb+. Les simulations de dynamiques moléculaires laissent à penser que ce phénomène est associé à une déshydratation des ions. D’autres types de membranes ont été testées, comme une de type UiO-66 qui montre des résultats similaires mais moins performants. Ces résultats ouvrent la voie à de nombreux développement de membranes basées sur des MOF avec des pores subnanométriques pour des applications de séparations d’ions efficaces. Non seulement cette découverte ouvre de nouvelles perspectives pour les process de désalinisation mais elle intéresse aussi la filière d’extraction du lithium. En effet, les procédés actuels d’extraction du lithium depuis la roche ou l’eau salée utilisent des solvants polluants, ils sont peu efficaces et impactent fortement les économies et sociétés locales. La demande globale de lithium continuant de croître pour le marché des appareils électroniques et des batteries, ces nouveaux types de membranes pourraient constituer une nouvelle voie d’extraction, plus propre et permettant par exemple d’utiliser l’eau de mer, ressource courante et accessible partout dans le monde ou encore de l’utiliser sur des rejets d’autres industries comme sur les rejets secondaires à l’extraction de gaz de schistes tels que ceux du Texas qui sont riches en lithium. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| De l’aéronautique à l’industrie alimentaire, en passant par la médecine ou l’architecture, les applications de l’impression 3D sont nombreuses. En plein développement depuis une dizaine d’années, cette technique pourrait avoir franchi un cap grâce à un modèle développé par un chercheur néerlandais. Lors d’une impression 3D, les couches supérieures sont posées sur les couches inférieures de manière quasiment instantanée. Le temps de durcissement est donc limité et il est très difficile de savoir s’il est possible de rajouter de la matière sans que la structure ne s’écroule. L’idée de Akke Suiker, de l’Université de technologie d’Eindhoven aux Pays-Bas, a donc été de mettre en équations ce problème afin d’obtenir un modèle général permettant aux utilisateurs de s’assurer que leur édifice reste stable. Pour construire son modèle, Akke Suiker s’est intéressé à un mur dans trois conditions différentes : libre de toute attache, avec un simple support, et enfin parfaitement encastré. « Ce choix n’est pas fait au hasard. Beaucoup de structures imprimées en 3D peuvent se décomposer en murs avec ces conditions aux limites. Ainsi déterminer les équations pour ces trois cas permet de prédire le comportement pour la plupart des structures », explique Philippe Poullain, de l’Institut de recherche en génie civil et mécanique (Université de Nantes, CNRS). Au cours d’une impression 3D, deux phénomènes sont à l’origine d’un potentiel écroulement de la structure : le flambage élastique et la déformation plastique. Le flambage élastique correspond à la flexion du mur sous la contrainte des couches supérieures qui s’ajoutent, comme une règle à la verticale qui se tord si l’on appuie dessus. La déformation plastique correspond aux déformations irréversibles que peut subir le mur sous le poids des autres couches. Akke Suiker a donc cherché à modéliser séparément l’action de ces deux phénomènes sur son mur imprimé. Il a transformé les nombreux paramètres physiques (géométrie de la structure, matériau utilisé, vitesse d’impression…) nécessaires à la mise en équation en quelques paramètres adimensionnels et a obtenu d’une part un modèle représentant l’effet de la déformation plastique et d’autre part, un modèle simulant l’effet du flambage élastique, pour les trois conditions aux limites décrites précédemment. « Si un utilisateur connaît la géométrie de sa structure, le matériau utilisé et tous les paramètres physiques nécessaires, il peut calculer ses paramètres adimensionnels, résoudre l’équation et déduire la hauteur à partir de laquelle il y aura flambage élastique ou déformation plastique. Il peut donc adapter ses paramètres pour ne pas être dans cette zone », précise Patrick Le Tallec, du laboratoire de mécanique des solides (Ecole Polytechnique, CNRS), qui salue un travail complet et élégant. Pour que les utilisateurs n’aient pas à résoudre les équations pour chaque structure à imprimer, le chercheur néerlandais a aussi réalisé des graphes représentant les différentes hauteurs critiques de flambage et de déformation plastique pour différentes valeurs de paramètres adimensionnels. Ainsi simplement en calculant les paramètres liés à son impression, il est possible de savoir si les conditions sont réunies pour obtenir une structure stable. Akke Suiker a eu l’occasion de vérifier son modèle sur des impressions 3D de béton et son modèle a permis de prédire les hauteurs critiques de flambage et de déformation plastique avec une très bonne précision. D’autres validations seront nécessaires, mais le modèle du néerlandais pourrait simplifier la vie de bon nombre d’utilisateurs de cette technique de fabrication, notamment dans la construction de bâtiments. Article rédigé par Georges Simmonds pour RT Flash Pour La Science | | ^ Haut | |
|
| | | Réduire de 20 % la consommation énergétique des bâtiments, et ce à moindre coût. Telle est la promesse offerte par une technologie inédite développée par des chercheurs de l’Université de la Colombie-Britannique (UBC), à Vancouver, au Canada. Le Professeur Curtis P. Berlinguette et son équipe de l’Institut Stewart Blusson Quantum Matter ont en effet mis au point une méthode novatrice de fabrication d’un verre spécifique, le vitrage électrochromique. Couvert d’un revêtement à base d’ions métalliques, il s’opacifie dès lors qu’on lui applique un courant électrique, et permet ainsi de filtrer chaleur et lumière. Un gage d’économies d’énergie, comme l’explique Curtis Berlinguette : « Le contrôle dynamique de la lumière du soleil et de la chaleur qui pénètre dans les bâtiments augmente le confort de ses occupants et réduit la consommation d’énergie jusqu’à 20 %. » Des capteurs assurent en effet la détection de la luminosité et de la température, et rendent ainsi automatique l’assombrissement du vitrage. L’intérêt de ces « fenêtres intelligentes » n’est donc pas à prouver. Mais ces dispositifs se heurtent à un obstacle majeur : leur coût, jusqu’à cinq fois plus élevé que celui de vitrages conventionnels. Un frein que la technologie canadienne pourrait contribuer à lever. La technique ne nécessite en effet ni les hautes températures, ni les basses pressions indispensables pour produire les vitrages électrochromiques actuels. « Nous pouvons fabriquer des films de qualité optique en utilisant des outils disponibles dans la quincaillerie du coin », se félicite Curtis Berlinguette. La méthode développée par le professeur en ingénierie chimique repose sur la simple application d’ions métalliques en solution. « Nous commençons par faire s’évaporer ce liquide sur la vitre, et nous dirigeons ensuite une lampe UV dessus pour la rendre fonctionnelle », explique Curtis Berlinguette. L’évaporation permet le dépôt des ions, qui, après avoir été exposés aux ultraviolets, forment un revêtement transparent à l’état inerte. Sous l’action d’une impulsion électrique, le film subit une réaction d’oxydo-réduction et se teinte alors d’un bleu profond, la clé de son pouvoir opacifiant. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| Quel que soit le rythme de progression des véhicules propres (voitures électriques ou à hydrogène) au niveau mondial, il est peu probable qu'il soit assez rapide pour permettre une réduction suffisante des émissions de CO2 liées aux transports, surtout si l'on prend en compte le taux de renouvellement du parc mondial d'automobiles. C'est pourquoi, parallèlement au développement des véhicules non thermiques, les constructeurs automobiles et les géants du pétrole intensifient leurs recherches pour pouvoir remplacer l'essence et le gazole raffinés à partir de pétrole par des carburants de synthèse produits à partir d'énergies renouvelables, mais compatibles avec les voitures thermiques actuelles, qui, dans tous les cas, ne vont pas disparaître du jour au lendemain. Des acteurs majeurs de l'industrie chimique, pétrolière, mais aussi automobile comme le groupe Volkswagen et Bosch, se sont d'ores et déjà engagés dans cette voie. L'une des méthodes les plus prometteuses, théorisée par le Prix Nobel de chimie George A. Olah, consiste à produire du méthanol afin de s'en servir comme vecteur d'énergie universel. Car le méthanol, aussi appelé alcool méthylique, présente notamment l'avantage de pouvoir être synthétisé à partir de nombreuses énergies primaires, simplement à partir de biomasse, ou de CO2 et d'hydrogène, mais aussi et surtout à partir de CO2, d'eau, et d'électricité excédentaire produite par des éoliennes ou des panneaux photovoltaïques. p> Liquide et donc facilement stockable et distribuable via des stations-service existantes, le méthanol peut être utilisé pur dans des moteurs essence optimisés à cet effet, ou mélangé à de l'essence comme c'est le cas à hauteur de 15 % pour le M15 distribué en Chine. Le méthanol peut également être converti, soit en essence de synthèse via le procédé MTG (Methanol To Gasoline), soit en un composé capable de se substituer au gazole comme l'Oxymethylene ether (OME) ou le Dimethyl ether (DME). La production industrielle, à un coût compétitif, de ces carburants de synthèse compatibles avec le parc automobile actuel, pourrait permettre de ne pas avoir à attendre le renouvellement de ce dernier pour réduire massivement de la participation du secteur des transports au dérèglement climatique : les émissions de CO2 d'origine fossile des véhicules à moteur thermique pourraient ainsi être progressivement abaissées jusqu'à 90 % dans les années à venir. Article rédigé par Georges Simmonds pour RT Flash Le Point | | | |
| Le CEA-Leti et l’Institut Nanosciences et cryogénie (Inac, CEA/UGA) ont franchi une étape importante vers la fabrication à grande échelle de boîtes quantiques (qubits), briques élémentaires des futurs processeurs de calcul quantique. Les chercheurs ont réussi à obtenir, sur des plaques (ou galettes) de silicium, une fine couche d’isotope 28 du silicium (28Si) dont le degré de pureté est très élevé et dont la structure cristalline est d’une qualité comparable à celle des films minces généralement fabriqués à partir de silicium naturel. Le silicium naturel, très majoritairement composé de Si28, est couramment utilisé dans l’industrie électronique. Il contient cependant 4,67 % d’isotope 29. Or, cet isotope présente un spin nucléaire qui limite la cohérence des bits quantiques (qubits) codés sur les spins électroniques, générant des erreurs de calcul. « C’est pour éviter les pertes de cohérence que nous mettons en œuvre nos technologies sur un silicium appauvri en 29Si. Nous avons ainsi créé, sur des plaques de silicium de 300 mm, une couche de l’ordre de 30 nm d’épaisseur dont la teneur en 29Si est inférieure à 0,006 % et dont la surface est suffisamment lisse pour subir dans de bonnes conditions les étapes successives de dépôts de matériaux, nécessaires à la fabrication de composants », explique Marc Sanquer (Inac). Ce résultat a été obtenu par un procédé de dépôt chimique en phase vapeur (CVD) sur une plate-forme pré-industrielle utilisant des galettes de silicium de diamètre 300 mm, standard largement utilisé sur les lignes de production de masse de l’industrie microélectronique. Le gaz de silicium enrichi en isotope 28 utilisé en CVD a été fourni par l’institut de chimie des substances de haute pureté de l’Académie des sciences de Russie, avec le soutien de la société Air Liquide. « La prochaine étape consistera à réaliser sur de tels substrats des qubits dont la fidélité devrait être nettement supérieure à celle de qubits que nous avons déjà obtenus précédemment sur silicium naturel. Et toujours au plus près du standard industriel », souligne Louis Hutin (CEA Leti). « La production massive de qubits est indispensable car un processeur électronique quantique devra intégrer de très nombreux qubits pour dépasser la performance des calculateurs classiques disponibles actuellement », poursuit M. Hutin. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Des scientifiques de l’EPFL (Ecole Polytechnique de Lausanne) ont construit la première unité capable de produire de l’électricité à partir d’acide formique, au moyen d’une pile à combustible, et ceci d’une manière efficace du point de vue énergétique, sûre, économique et renouvelable. L’hydrogène apparaît comme l’un des vecteurs d’énergie les plus prometteurs dans la recherche de solutions de stockage de l’énergie renouvelable. Utiliser de l’hydrogène pour produire de la chaleur ou de l’électricité n’engendre pas d’émission de carbone ou de particules, ce qui signifie qu’il n’a pas d’impact négatif sur l’environnement. Le problème est que l’hydrogène offre une teneur en énergie très faible en volume. Il est donc très difficile à stocker et à transporter sous sa forme naturelle gazeuse. La solution alternative consiste à utiliser un porteur d’hydrogène tel que l’acide formique, qui constitue la combinaison la plus simple d’hydrogène et de CO2. Un litre d’acide formique permet ainsi de transporter 590 litres d’hydrogène. L’acide formique est liquide en conditions normales, facile à stocker, transporter et manipuler. Il est déjà produit à partir de sources renouvelables par centaines de milliers de tonnes, et est largement utilisé dans l’agriculture, l’industrie du cuir, celle du caoutchouc, et les industries chimiques et pharmaceutiques. L’appareil permettant d’extraire l’hydrogène de l’acide formique est constitué de deux parties principales, un reformeur d’hydrogène (HYFORM) et une pile à combustible à membrane échangeuse de protons (PEMFC). Le reformeur utilise un catalyseur à base de ruthénium pour extraire l’hydrogène, bien que les scientifiques développent en ce moment des catalyseurs basés sur des matériaux encore meilleur marché. L’unité peut produire 7000 kWh par an, et sa puissance nominale est de 800 watts – à peu près l’équivalent de 200 smartphones en charge simultanément. Son efficience électrique est actuellement d’au moins 45 %. Tant que l’acide formique utilisé est produit de manière durable, la pile à combustible est favorable à l’environnement et permet le stockage à long terme d’énergie renouvelable. Elle est silencieuse, émet un gaz propre, affiche un taux d’émission de dioxyde de carbone nul, et ne produit ni particules ni oxydes d’azote. L’appareil demande peu d’entretien et assure une performance du catalyseur stable et de longue durée. Sa technologie peut être démultipliée et peut donc être utilisée aussi bien dans les ménages que dans les installations industrielles. Puisqu’elle n’a besoin d’être alimentée qu’en acide formique, le système ne requiert pas de connexion aux réseaux électriques, ce qui la rend idéale pour des régions retirées ou inaccessibles. « La transformation chimique du CO2, un gaz à effet de serre, en des produits utiles devient de plus en plus importante puisque ses niveaux dans l’atmosphère continuent à s’élever à cause des activités humaines, » explique Gabor Laurenczy, responsable de cette recherche. « C’est pourquoi produire de l’acide formique de manière durable – en utilisant le CO2 comme vecteur d’énergie de l’hydrogène – est très important. La demande mondiale d’acide formique est en hausse, particulièrement dans le contexte des énergies renouvelables. Les porteurs d’hydrogène, et leur production à partir du CO2, soit par hydrogénation, par biodéchets ou par biomasse, sont considérablement plus durables que les pratiques existantes ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Selon l’OMS (Organisation Mondiale de la Santé), environ deux milliards de personnes n’ont pas accès à de l’eau potable propre. En même temps, nos besoins énergétiques sans cesse en augmentation et l’emploi de métaux lourds dans les processus industriels ont maximisé notre exposition à des matériaux toxiques présents dans l’eau. Les méthodes commerciales courantes pour éliminer les métaux lourds, comme le plomb, de notre eau potable municipale sont souvent coûteuses et énergivores, sans même être suffisamment efficaces. Des approches moins conventionnelles le sont peut-être plus, mais restent à usage unique, sont difficiles à régénérer, ou génèrent elles aussi des déchets toxiques. Or, le laboratoire du Professeur Wendy Lee Queen à l’EPFL avec des collègues de l’Université de Californie à Berkeley et du Lawrence Berkeley National Laboratory ont trouvé une solution en faisant appel à des charpentes métallo-organiques (MOF) – des matériaux constitués de nœuds métalliques interconnectés par des « entretoises ». Offrant une surface interne inégalée et un ajustement chimique aisé, les MOF peuvent « soustraire » la vapeur d’eau – comme d’autres gaz – de l’air. De telles caractéristiques font de ces MOF des matériaux prometteurs pour ôter de manière sélective des métaux lourds présents dans l’eau. Ces chercheurs ont conçu un composite MOF/polymère stable dans l’eau, en ayant recours à des matériaux peu coûteux, respectueux de l’environnement et biologiquement inoffensifs. Les chercheurs ont traité un MOF, connu sous le nom de Fe-BTC, avec de la dopamine, qui s’est polymérisée en polydopamine (PDA), coinçant ainsi le polymère dans le MOF. Le composite final, nommé Fe-BTC/PDA, peut rapidement et sélectivement éliminer les quantités élevées de métaux lourds dans des échantillons d’eau réelle, comme le plomb et le mercure. Il peut, en fait, ôter plus de 1.6 fois son propre poids de mercure et 0.4 fois son poids de plomb. Le Fe-BTC/PDA a alors été testé dans des solutions aussi toxiques que les pires échantillons d’eau trouvés à Flint, au Michigan. Les tests ont montré que le MOF peut, en l’espace de quelques secondes seulement, ramener les concentrations de plomb à 2 parties par milliard – un niveau que l’Agence américaine pour la protection de l’environnement et l’Organisation mondiale de la Santé jugent acceptable. Les scientifiques ont aussi ôté le plomb de divers échantillons d’eau réelle provenant du Rhône, de la Méditerranée et d’une usine de traitement des eaux usées en Suisse. Ils ont aussi montré que le matériau est aisément régénéré. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | C'est une avancée majeure en agronomie : des chercheurs de l’Inra et du CEA ont découvert par quel mécanisme une modification d’une protéine des plantes hôtes, nommée eIF4E1, peut conduire à une résistance large et efficace aux Potyvirus sans modifier le rendement des plantes. Les Potyvirus constituent un des plus grands groupes de virus phytopathogènes regroupant des virus comme la sharka sur les Prunus et le virus Y de la pomme de terre, causant des pertes de récolte majeures. L’analyse génétique des résistances à ces virus chez des plantes cultivées ou modèles a permis de mettre en évidence le rôle central de la protéine de plante eIF4E1, non seulement pour la synthèse de protéines dans la plante mais aussi pour la résistance des plantes aux virus. En effet, lors de l’infection des plantes, les Potyvirus recrutent ces facteurs de la plante hôte pour se multiplier. Chez de nombreuses espèces cultivées et sauvages, des mutations dans ce gène ont été sélectionnées, conduisant au changement de plusieurs acides aminés de la protéine eIF4E1 conférant ainsi une résistance des plantes aux Potyvirus. Même muté, ce gène reste fonctionnel et joue son rôle dans la synthèse des protéines chez ces plantes. Différentes mutations naturelles induisant la résistance aux Potyvirus ont été identifiées, notamment chez le piment, la tomate ou le pois cultivé. Une équipe de recherche conjointe de l’Inra et du CEA a montré que ces modifications ciblées de la protéine eIF4E1 pouvaient être reproduites et transférées chez une plante dépourvue de résistance naturelle afin de conduire à une résistance sans affecter le développement de la plante. Pour cela, ils ont produit un gène synthétique eIF4E1 d’Arabidopsis thaliana en y apportant six changements d’acides aminés connus pour être responsables de la résistance naturelle du pois aux Potyvirus. Par des méthodes de biotechnologies, ils ont remplacé le gène eIF4E1 de la plante modèle Arabidopsis par ce gène synthétique. Après introduction, les scientifiques ont vérifié que ce nouvel allèle confère la résistance de la plante à un isolat de Potyvirus. Le fait que cette protéine soit fonctionnelle permet de l’associer à d’autres résistances afin de produire des plantes résistantes à un grand nombre de Potyvirus différents, et cela sans perte de rendement. Ces travaux apportent la preuve de concept de l’efficacité du design de gènes permettant de mettre en place des résistances génétiques sans nuire au développement de la plante, par la connaissance de la variabilité naturelle chez une espèce, comme le pois cultivé. Ils montrent qu’il est possible d’appliquer cette connaissance à une autre espèce, ce qui ouvre des perspectives pour le futur développement de résistance à large spectre et plus durable grâce aux biotechnologies. Ces résultats pourraient être transférés à la vigne, la pomme de terre, les arbres fruitiers et le manioc, espèces cultivées également affectées par des virus du genre Potyvirus. Article rédigé par Georges Simmonds pour RT Flash CEA | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une équipe de recherche européenne a étudié des nourrissons de 12 et 19 mois. C’est l’âge où l’apprentissage de la parole commence à se faire, mais avant qu’une maîtrise complexe ne soit observée. Les enfants devaient ici inspecter des objets distincts à plusieurs reprises : un dinosaure et une fleur. Les objets étaient initialement cachés derrière un panneau noir, et l’idée consistait à ramasser le dinosaure. La moitié du temps, le panneau était ensuite enlevé pour révéler – comme prévu – la fleur restante. Dans le reste des cas cependant, le mur disparaissait et un deuxième dinosaure était présenté aux bébés. Concernant ce deuxième cas de figure, les enfants ont déduit que quelque chose n’allait pas – même s’ils étaient incapables de l’exprimer verbalement. Les chercheurs se sont ici appuyés sur la technique de l’eye-tracking, couramment utilisée pour évaluer les capacités mentales chez les jeunes enfants et chez les singes. Les enfants regardaient en effet plus longtemps et de manière significative les objets inattendus lorsqu’ils surgissaient, suggérant qu’ils étaient confus par la révélation. « Nos résultats indiquent, pour la première fois que l’acquisition du vocabulaire logique pourrait ne pas être la source des éléments logiques les plus fondamentaux dans l’esprit », explique Nicoló Cesana-Arlotti, chercheur principal à l’Université Johns Hopkins (États-Unis). Dans le cadre de leur étude, les chercheurs ont également signalé que les pupilles des nourrissons se dilataient lorsqu’ils regardaient des animations présentant des résultats illogiques. Le même phénomène se produit chez les adultes faisant face à des problèmes de logique. Ainsi, les bébés seraient bel et bien conscients de la façon dont les choses « devraient » être, et ce même avant de pouvoir l’exprimer verbalement. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Une équipe de recherche québécoise de l’Université de Sherbrooke a récemment identifié un nouveau mécanisme moléculaire expliquant la résistance aux médicaments anticancéreux. Ces chercheurs ont réussi à contourner ce mécanisme de résistance en rendant les tumeurs à nouveau sensibles à la chimiothérapie. « La découverte de ce nouveau mécanisme de résistance est prometteuse et nous avons déjà une piste pour le diminuer », explique Claire Dubois, chercheuse en immunologie à l’Université de Sherbrooke. C’est l’augmentation du taux d’acidité au sein de la tumeur qui développe ce mécanisme de défense contre les médicaments —et dans certaines circonstances, le développe tant et si bien que le médicament devient inefficace. Cela se produit dans un micro-environnement pauvre en oxygène (hypoxie), qui est une caractéristique du développement des cellules malades. L’équipe de Claire Dubois s’est donc intéressée à ces changements de pH et à l’appauvrissement en oxygène. Une cellule qui pousse dans un environnement aussi hostile doit nécessairement s’adapter —ce que les cellules normales ne parviennent pas à faire, au contraire des « super cellules » cancéreuses. L’impact de l’hypoxie sur l’invasion des cellules cancéreuses était déjà connu. « Les régions pauvres en oxygène génèrent des structures aberrantes sur les vaisseaux sanguins —les nouvelles vascularisations se forment mal— et augmentent la malignité des tumeurs », rappelle la chercheuse. En modifiant ainsi leur environnement, les cellules cancéreuses parviennent donc à résister aux médicaments en sur-acidifiant certains de leurs « compartiments » – ou endosomes. En devenant très acides et pauvres en oxygène, elles vont y piéger les molécules du médicament. Pour contourner cette difficulté et stabiliser à nouveau le pH de ces cellules malignes, les chercheurs ont eu l’idée d’utiliser un peptide, un fragment de protéines, pour renforcer le lien entre cet échangeur d’ions et la membrane plasmique de la cellule – et ainsi, rétablir un pH moins acide. « Nous travaillons à présent à raffiner ce peptide pour augmenter l’efficacité du traitement au sein des zones les plus actives des tumeurs », soutient Claire Dubois. Cette percée pourrait aider à améliorer la toxicité des médicaments au sein des cellules malignes, celles liées au développement des métastases et aux cas de récidive du cancer. Cela fait déjà quelques années que les chercheurs relèvent différentes résistances à la chimiothérapie. L’environnement hypoxique, sans oxygène, s’avère une cible fondamentale dans la lutte à la progression de la maladie. Cet environnement « favorable » aux cellules cancéreuses ne leur permet d’ailleurs pas seulement de mieux résister aux médicaments, mais aussi aux attaques du système immunitaire. Quant au peptide ciblé par l’étude, il pourrait être ingéré par virus oncologique. "Il est incapable à lui seul de pénétrer la cellule mais il pourrait être livré par virus et surexprimé par les gènes à l’intérieur de la cellule". Article rédigé par Georges Simmonds pour RT Flash Research Gate | | | |
| Selon une étude américaine du New York Langone Health, les bactéries intestinales détermineraient la vitesse de croissance tumorale dans le cancer du pancréas, suggérant que les antibiotiques pourraient rendre l'immunothérapie plus efficace contre ce type de cancer. Ces travaux révèlent que la population de bactéries dans le pancréas augmente plus de mille fois chez les patients atteints de cancer du pancréas et devient dominée par des espèces qui empêchent le système immunitaire d'attaquer les cellules tumorales. Les chercheurs de l'Université de New York, du Perlmutter Cancer Center et du NYU College of Dentistry, montrent que chez les patients atteints, les bactéries intestinales pathogènes migrent vers le pancréas à travers le canal pancréatique, et, une fois dans le pancréas, ce mélange bactérien anormal (microbiome) dégage des composants cellulaires qui bloquent le système immunitaire et favorisent la croissance du cancer : « l’étude montre que les bactéries modifient l'environnement immunitaire autour des cellules cancéreuses pour les laisser se développer plus rapidement ». En revanche, l'élimination des bactéries de l'intestin et du pancréas par des antibiotiques ralentit la croissance du cancer et permet de reprogrammer les cellules immunitaires et les induire à lutter contre les cellules cancéreuses. Les antibiotiques oraux ont également multiplié par trois l'efficacité des inhibiteurs de point de contrôle, une forme d'immunothérapie qui stimule le système immunitaire à attaquer les cellules cancéreuses. « L’étude apporte enfin une nouvelle compréhension de l'immunosuppression dans le cancer du pancréas et son inversion en "clinique" », explique le Docteur Deepak Saxena, co-auteur et professeur agrégé de sciences fondamentales et de biologie au NYU College of Dentistry. D’autres études sont déjà en cours pour préciser les espèces bactériennes responsables de l’inhibition de la réponse immunitaire aux cellules cancéreuses afin de travailler ensuite au développement de nouveaux tests diagnostiques bactériologiques, de nouvelles combinaisons d'antibiotiques et d'immunothérapies, et peut-être même à des probiotiques ciblés pour les patients à risque élevé. Article rédigé par Georges Simmonds pour RT Flash Cancer Discovery | | | |
| On le sait, nos sociétés développées consomment beaucoup trop de sel. L’OMS recommande, pour un adulte, de consommer moins de 5 grammes (un peu moins d’une cuillère à café) de sel par jour. Or, cette organisation estime qu’aujourd’hui, la plupart des individus consomment de 9 à 12 grammes par jour en moyenne, soit deux fois l’apport maximum recommandé. Cette alimentation trop riche en sel favorise l’apparition de maladies cardiovasculaires mais, ce qu'on sait moins, c'est que trop de sel entraîne aussi des dommages au niveau du cerveau. Une nouvelle étude, menée par des chercheurs américains, met en lumière les mécanismes cellulaires expliquant comment le sel alimentaire consommé à haute dose favorise également les troubles de la cognition. L’étude, supervisée par le neurologue Costantino Iadecola de la faculté de médecine de l’Université Cornell de New York, s’est focalisée sur l’observation et l’analyse de souris soumises à un régime hypersalé pendant trois mois. La teneur en sel dans leur alimentation représentait entre 8 à 16 fois l’apport recommandé pour la souris, soit en proportion, l’équivalent aux excès de sel les plus retrouvés chez l’homme. Tout d’abord, les chercheurs ont observé qu’un apport important en cristal blanc réduisait significativement le débit sanguin dans le cerveau au repos ainsi que la fonction endothéliale. Par conséquent, les souris ont été moins performantes dans leurs tests mentaux montrant ainsi la présence de troubles cognitifs (altération de la mémoire, la compréhension, du jugement). Au bout de trois mois, les chercheurs ont décelé une démence chez les souris. Dans le cerveau, des cellules dites endothéliales tapissent la surface interne des vaisseaux sanguins et remplissent divers rôles comme la régulation de la dilatation de ces vaisseaux et la sécrétion de différentes molécules. Par exemple, le monoxyde d’azote (NO) est un messager généré en permanence par l’endothélium afin de dilater les vaisseaux sanguins et inhiber l’agrégation des plaquettes. En inhibant la libération de NO par les cellules endothéliales, l’excès de sel réduit l’apport sanguin au niveau du cerveau. Pour les chercheurs, le sel n’agit pas directement sur le cerveau mais par l’intermédiaire de cellules immunitaires présentes dans l’intestin grêle (gros intestin partant de l’estomac jusqu’au côlon). Sous l’influence du sel, ces lymphocytes T, nommées également TH 17, secrètent massivement des interleukines 17 (IL-17) qui sont libérées dans le plasma. Une fois dans le sang, les interleukines circulent librement pour atteindre les cellules du cerveau. L’IL-17 inhibe la production de NO par les cellules endothéliales. Ces résultats mettent en lumière une nouvelle voie de communication cerveau-intestin. Ici, un excès de sel est associé à une déficience cognitive via une réponse immunitaire initiée dans l’intestin. « L’impact du sel sur le cerveau est dévastateur, mais réversible et la communauté médicale devrait savoir que ces effets nocifs du sel ne sont pas liés à l’hypertension artérielle, comme on le croit généralement, et qu’ils justifient d’envisager une réduction de la consommation de sel dans le cadre des efforts pour maintenir le cerveau en bonne santé » souligne le Docteur Iadecola. Pour les chercheurs, c’est la voie métabolique impliquant l’interleukine IL-17 et l’enzyme (une molécule qui accélère la vitesse des réactions chimiques) inhibant la synthèse de NO par les cellules endothéliales qui constitue désormais une cible thérapeutique privilégiée pour contrer les effets délétères du sel sur le cerveau. « Ces résultats ont des implications pour les maladies associées à une augmentation des cellules TH 17 et de l’IL-17, comme la sclérose en plaques, le psoriasis, la polyarthrite rhumatoïde et les maladies inflammatoires chroniques de l’intestin (MICI). Ces patients ont un risque accru de lésion au niveau de leurs vaisseaux cérébraux, et notre étude laisse penser que les effets nocifs de l’IL-17 sur ces vaisseaux peut en être la cause » souligne cette étude. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Parmi les antibiotiques, la famille des fluoroquinolones est l'une des plus utilisées dans le monde, mais ce type d'antibiotique n'est pas dénué d'effets secondaires, comme le risque de tendinite. Des chercheurs suédois de l'Institut Karolinska de Stockholm, dirigés par Björn Pasternak, se sont intéressés aux liens éventuels entre les traitements oraux par fluoroquinolones et le risque d’anévrisme aortique. Cette équipe a étudié plus de 360 000 prescriptions de fluoroquinolones établies pour des adultes de plus de 50 ans, entre juillet 2006 et décembre 2013 en Suède. Ils ont comparé les données de ces patients, recueillies pendant 60 jours après le début du traitement, avec celles du même nombre d’individus ayant les mêmes caractéristiques (âge, antécédents, critères socio-démographiques, etc.), mais traités par amoxicilline. Cette vaste analyse a permis de montrer que la prise de fluoroquinolones est associée à une augmentation de 66 % du risque d’anévrisme ou de dissection aortique au cours des 60 jours suivant le début du traitement. Sur la population étudiée, cette augmentation du risque correspond à 82 cas supplémentaires pour un million de traitements. Les fluoroquinolones ont la particularité de dégrader le collagène et d’autres composants structurels de la matrice extracellulaire et réduisent la production de collagène. Ce mécanisme pourrait expliquer cette association si elle était confirmée par d'autres travaux. Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| On savait déjà que la concentration excessive de certains polluants dans l’air que nous respirons comme l’ozone, le monoxyde carbone, les particules fines ou encore le dioxyde de soufre, peut avoir de graves conséquences sur la santé. Mais cette fois, des chercheurs de l’Université libre de Bruxelles (ULB) et de l’Université de Namur (UNamur) viennent, pour la première fois, d’identifier un lien direct entre un des polluants atmosphériques qui ne fait pas l’objet de mesures systématiques et la santé de nos artères. La substance incriminée est l'acide cyanhydrique, une forme volatile du cyanure, qui est un gaz polluant non réglementé. Il est généré par la combustion des matières organiques issue de l’utilisation de moteurs thermiques, de la consommation de tabac, de feux,… mais il ne fait pas partie des gaz mesurés lors de l’évaluation de la qualité de l’air comme le dioxyde d’azote ou l’ozone. Avec des collègues autrichiens et américains, les chercheurs bruxellois et namurois ont pu démontrer le lien direct entre l’exposition à ce gaz et l’athérosclérose chez un être vivant. Les chercheurs ont tout d’abord démontré qu’une protéine humaine impliquée dans le développement de l’athérosclérose et appelée myéloperoxydase (MPO), est capable d’oxyder ce cyanure en cyanate par divers mécanismes chimiques, directs et indirects. Cela favorise la transformation de protéines circulant dans le sang. Avec l’aide des équipes autrichienne et américaine, ils ont injecté du cyanure dans des souris de laboratoire « fabriquées » pour mimer les maladies cardiovasculaires et qui exprimaient la protéine MPO humaine. Cette expérience a démontré que l’exposition au cyanure induisait l’accumulation de protéines modifiées par ce polluant et plus spécifiquement dans les plaques d’athérome. Il s’agit des plaques que l’on retrouve dans la paroi des vaisseaux sanguins et qui sont à l’origine de certaines maladies cardiovasculaires. Les protéines modifiées par ce polluant étaient également impliquées dans le déclenchement de mécanismes inflammatoires pouvant devenir chroniques. "C’est donc la première fois que l’on démontre chez un être vivant un lien direct entre une exposition à un gaz polluant et l’athérosclérose", souligne ce travail. Article rédigé par Georges Simmonds pour RT Flash Daily Science | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|