| | | | | | | Edition du 17 Janvier 2020 |
| |
|
| Edito La vie est-elle venue de l’espace : nouvel épisode…
Je reviens cette semaine sur un sujet passionnant que j'aborde régulièrement dans notre lettre : l'origine de la vie sur Terre. Au cours de ces derniers mois, plusieurs études et découvertes sont en effet venues éclairer cette énigme qui fascine les hommes depuis l'Antiquité. Nous savons à présent que les première formes rudimentaires de vie - sans doute des cyanobactéries - sont sans doute apparues il y a 3,8 milliards d’années, à peine 800 millions d’années après la formation de la Terre. Pour essayer d’expliquer cet événement extraordinaire, il y a presque un siècle, dans les années 1920, un biochimiste soviétique, Oparine, et un biologiste anglais, Haldane, émirent indépendamment une théorie de la « soupe primitive », basée sur l’hypothèse que des composés prébiotiques ont pu être synthétisés sur la Terre, sous l’effet des conditions physico-chimiques et thermiques tout à fait particulières que connaissait notre planète dans ce lointain passé. Selon ces deux scientifiques, le méthane, le dioxyde de carbone ou l'ammoniac, présents dans l'atmosphère primitive de la Terre, auraient été brisées sous l'action des rayons UV du Soleil ou des éclairs, pour former des molécules plus grosses tombant ensuite dans les océans. Au sein de cette s oupe primitive, les molécules organiques auraient permis la formation des premières cellules vivantes. Il fallut attendre 1953 pour qu’un tout jeune chimiste américain, Stanley Miller, imagine et réalise une expérience historique : un dispositif amenant une vapeur d'eau enrichie en méthane, ammoniac et hydrogène jusqu'à des électrodes, afin de reproduire l'action des éclairs ou des UV sur l'atmosphère primitive. On connait la suite. Miller montra que l’eau résultant de la condensation de sa vapeur contenait cinq acides aminés, briques de base de la vie. En 2008, deux autres scientifiques américains, Jeffrey Bada et Adam Johnson, s’inspirèrent des travaux de Miller pour réaliser une nouvelle expérience dans laquelle ils recréèrent des conditions proches d'une éruption volcanique : ils parvinrent alors à produire pas moins de 22 acides aminés avec cette nouvelle « soupe primitive ». Mais depuis un siècle et demi, une autre théorie fascinante, par ailleurs compatible avec celle de la « soupe primitive », tente d’expliquer les origines de la vie sur Terre par une action décisive venue de l’espace. Cette théorie de la « panspermie » a été formalisée par l’allemand Hermann Richter vers 1865. Elle postule que la vie aurait pu émerger sur notre planète grâce à l’action de micro-organismes enfouis dans les nombreuses météorites percutant la Terre. Or, justement, la météorite de Murchison est tombée en 1969 près du village de Murchison, en Australie, à une centaine de kilomètres au nord de Melbourne. C'est une chondrite carbonée du groupe CM2. En 2010, une étude scientifique approfondie a pu identifier 14 000 composés moléculaires, dont 70 acides aminés dans cette météorite. Celle-ci est célèbre pour avoir fortement influencé la conception des origines de la vie en raison de la présence de nombreux composés organiques en son sein, dont des acides aminés. Ces composés étant des briques essentielles du vivant, leur présence dans une météorite accrédite l'idée que les premiers constituants nécessaires à l'émergence de la vie ont eu une origine extraterrestre. En 1998, deux météorites contenant un mélange fascinant de produits chimiques se sont écrasées sur Terre. Elles ont été récupérées et conservées pour analyse pendant 20 ans. Mais en janvier 2018, en utilisant un nouvel outil très puissant, les rayons X de l’Advanced Light Source (ALS) du Lawrence Berkeley National Laboratory en Californie, les scientifiques ont montré que ces petites roches contiennent tous les ingrédients nécessaires pour faire naître la vie partout où elles atterrissent, et qu’elles ont peut-être voyagé depuis un monde océanique lointain (Voir Science Advances). « C’est vraiment la première fois que nous trouvons une matière organique abondante associée à l’eau liq uide qui est vraiment cruciale pour l’origine de la vie », explique la scientifique Queenie Chan de l’Open University au Royaume-Uni, qui ajoute, « Tout mène à la conclusion que l’origine de la vie est vraiment possible ailleurs ». Début décembre 2019, une équipe internationale associant des chercheurs de la NASA et de l’Université de Tohoku (Japon) a trouvé, dans deux météorites, des molécules de sucres essentiels à la vie. Cette nouvelle découverte renforce elle aussi l’hypothèse selon laquelle le bombardement de météorites sur la Terre primitive pourrait avoir favorisé l’apparition de la vie en y apportant les éléments de base (Voir PNAS). L’équipe a découvert du ribose et d’autres sucres, notamment l’arabinose et le xylose, dans deux météorites riches en carbone, NWA 801 (type CR2) et Murchison (type CM2). Ce qui rend cette découverte si intéressante, c’est que le ribose est un composant crucial de l’ARN (acide ribonucléique). L’ARN sert de molécule messagère, copiant les instructions génétiques de la molécule d’ADN (acide désoxyribonucléique) et les transmettant à des usines moléculaires au sein de la cellule, appelées ribosomes, qui « lisent » les instructions de l’ARN pour fabriquer des protéines spécifiques. « D’autres éléments importants à la vie ont déjà été découverts dans des météorites, notamment des acides amin&eacut e;s et des bases nucléiques, mais les sucres ont été un élément manquant parmi les principaux éléments constitutifs de la vie » déclare Yoshihiro Furukawa, de l’Université de Tohoku, au Japon, qui ajoute, « Notre étude apporte la première preuve directe de la présence de ribose dans l’espace et de l’apport du sucre sur Terre. Le sucre extraterrestre pourrait avoir contribué à la formation d’ARN sur la Terre prébiotique, ce qui a probablement conduit à l’origine de la vie ». En 2015, la mission Philae de la NASA avait déjà observé et inventorié pas moins de 16 molécules organiques différentes sur la comète Tchouri et, en 2013, des astronomes avaient par ailleurs découvert la présence d'une molécule qui produit l'une des quatre bases azotées de l'ADN parmi les particules de glace d'un nuage de gaz interstellaire géant, à 25 000 années-lumière de la Terre, ce qui montre que la production de molécules organiques complexes n’est pas limitée à notre système solaire mais existe également dans l’ensemble du Cosmos, en tout cas loin dans notre galaxie. Léon Sanche, professeur-chercheur à l’Université de Sherbrooke, a publié, pour sa part, en novembre 2017, dans le Journal of Chemical Physics, une étude qui démontre qu’il est possible de créer de petites molécules organiques à partir d’un environnement glacial irradié par des électrons lents. Ces chercheurs ont découvert qu’une variété de petites molécules organiques comme le propylène, l’éthane et l’acétylène, peut être produite à partir du méthane congelé. En 2018, la même équipe a montré qu’en bombardant, à l’aide d’électrons de basse énergie un mélange de molécules de méthane, d’ammoniac et de dioxyde de carbone, qu’on trouve en grande quantité dans le vide interstellaire , on obtient de la glycine, un acide aminé indispensable à la structure de protéines composant les organismes vivants (Voir AIP). Ce n’est pas la première fois que les composants de base de la vie sont détectés dans les météorites. En 2009, l’agence spatiale américaine avait déjà annoncé la découverte de glycine et de nucléobases dans une comète. Ces découvertes avaient conforté l’hypothèse que les astéroïdes et météorites pouvaient être le lieu de réactions chimiques produisant des ingrédients de la vie. Mais il restait à prouver que cela était également vrai pour la formation de certains sucres : c’est désormais chose faite ! Cette nouvelle découverte est capitale car elle renforce très sérieusement la théorie de la vie venant de l’espace, grâce à l’action décisive des météorites. Selon cette hypothèse, les toutes premières formes biologiques terrestres ne contenaient pas d’ADN, mais seulement de l’ARN. Or les molécules d’ARN ont une propriété tout à fait singulière, contrairement à l’ADN, elles peuvent se répliquer toutes seules, sans l’intervention d’autres molécules, et peuvent servir de catalyseur aux réactions chimiques. Dans ce scenario, c’est seulement dans un second temps, passé un certain stade de complexification du vivant, que l’ADN serait apparu… Dans notre système solaire, une foule de molécules organiques complexes ont également été détectées par la sonde Cassini dans l’atmosphère de Titan, le plus gros des satellites de Saturne. Parmi ces molécules, on trouve notamment de la glycine et de l’alamine, deux composés organiques qui sont à la base des acides aminés et des protéines constituant l’ADN des organismes vivants sur Terre. En 2017, l’analyse des données du radiotélescope ALMA au Chili avait déjà permis de révéler la signature de molécules essentielles à la vie : l’acrylonitrile, essentielle à la présence de membranes cellulaires dans des couches de lipides, et la pyrimidine, formant les anneaux structurels des molécules d’ADN dans les organismes vivants sur Terre. Autre expérience capitale : en 2010, une équipe internationale de recherche a reproduit dans une enceinte les réactions chimiques susceptibles de se produire dans l'atmosphère de Titan. Ces expériences ont pu montrer que le rayonnement intense qui atteint les couches supérieures de cette atmosphère avait la capacité de briser des molécules très stables et de produire des molécules organiques complexes comme des acides aminés et des bases nucléotidiques, qui sont les briques de base de la vie sur Terre. Ces recherches avaient permis de montrer que les cinq bases nucléotidiques utilisées par toutes les formes de la vie sur Terre (cytosine, adénine, thymine, guanine et uracile) pouvaient bien être produites dans l’atmosphère tourmentée et hautement énergétique de Titan. En juin 2018, une autre étude réalisée par une équipe internationale associant des chercheurs américains, allemands et français, a montré que des composés organiques complexes sont présents dans l’océan qui recouvre toute la surface d’Encelade, sixième lune par la taille des 82 satellites répertoriés de Saturne. Des échantillons organiques éjectés dans l’espace par d’immenses geysers, et piégés dans la glace, ont été récupérés en 2015 par la sonde spatiale Cassini (Voir Nature). Les scientifiques eurent alors la grande surprise de constater que, non seulement Encelade renferme des composants d’origine organique mais que ces derniers sont supérieurs à 200 unités de masse atomique et appartiendraient à des fragments de grandes molécules organiques complexes… L’hypothèse actuelle des chercheurs est que ces molécules organiques proviennent d’une activité hydrothermale conduisant à une chimie complexe au cœur du noyau d’Encelade. Rappelons enfin qu’en juin 2018, l’analyse des prélèvements réalisés par le rover Curiosity, à quelques cm sous la surface de Mars, sur deux sites distincts du cratère de Gale, a montré la présence d’une grande quantité de molécules organiques complexes, thiophènes, toluène et benzène notamment, ce qui n’a pas manqué de relancer les spéculations sur la possibilité d’une forme de vie rudimentaire, présente ou passée, sur la planète rouge. Ces récentes observations et découvertes sont capitales, car elles montrent que l’apparition de la vie sur notre planète – et peut-être sur d’autres mondes – a pu être, sinon provoquée, du moins grandement facilitée par l’apport de composants organiques variés et complexes acheminés par les comètes qui n’ont cessé de bombarder la Terre depuis son origine. Mais ces avancées de l’astronomie et de l’astrophysique montrent également que ces molécules organiques complexes sont bel et bien présentes en grande quantité en plusieurs endroits de notre système solaire, notamment Titan, Encelade et Mars, et cela, malgré les conditions extrêmes de températures et un environnement a priori bien peu propice à leur présence. Même en refusant de se livrer à des spéculations toujours hasardeuses sur le développement possible de la vie sur quelques-unes des 9 à 10 milliards de planètes potentiellement habitables que compte notre galaxie (la Voie lactée), nous savons à présent qu’il est raisonnable d’imaginer que la vie puisse exister ailleurs que sur Terre, dans notre propre système solaire. Si tel est le cas, les progrès incessants dans les outils d’observation et d’analyse, ainsi bien sûr que différentes missions d’exploration prévues sur Titan, Encelade et Mars, devraient permettre d’en avoir le cœur net avant la fin de ce siècle… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Nanotechnologies et Robotique | |
| | | Des bioingénieurs de la Rice University (Texas) ont conçu des moteurs moléculaires qui vont percer ou forer dans les superbactéries et redonnent ainsi une voie et une vie à certains antibactériens. Ces machines moléculaires ont montré leur capacité à cibler et à détruire, en quelques minutes, des bactéries mortelles qui ont développé une résistance à presque tous les antibiotiques. Ces superbactéries pourraient tuer 10 millions de personnes par an d'ici 2050 et entraîner ainsi plus de décès que le cancer, expliquent les chercheurs qui ont donc envisagé un tout nouveau système « pour en venir à bout ». En effet, les bactéries savent évoluer de manière à résister aux antibiotiques mais n’ont aucune défense contre des machines « mécaniques » équipées de forets moléculaires qui viennent percer leur enveloppe cellulaire. Les antibiotiques peuvent alors « passer » à travers ces brèches et regagnent en efficacité contre les bactéries. Ces nano-forets sont des molécules qui ressemblent un peu à des pagaies qui se mettent à tourner à 3 millions de rotations par seconde lorsqu'elles sont activées avec la lumière. Les tests montrent effectivement que ces machines moléculaires tuent Klebsiella pneumoniae en quelques minutes. Des images microscopiques des bactéries ciblées permettent de visualiser le moment où les moteurs ont percé leurs parois cellulaires. Le défi est de taille, car les bactéries n'ont pas seulement une double couche lipidique mais aussi une bicouche de protéines avec des sucres qui les relient, donc une paroi cellulaire très robuste. Cela explique aussi pourquoi ces bactéries sont si difficiles à tuer. Mais elles n'ont aucun moyen de se défendre contre une machine « à action mécanique ». Les tests montrent qu’ainsi percée de toutes parts, K. pneumonia redevient sensible au méropénème (carbapénème), un antibactérien auquel la bactérie avait développé une résistance. La brèche dans l’enveloppe cellulaire est presque imparable : car parfois, lorsqu’une bactérie découvre un médicament, elle ne le laisse pas entrer. Permettre au médicament de passer à travers la paroi cellulaire lui redonne une nouvelle vie. Cela ne résout pas cependant toutes les formes de résistances, car dans certains cas aussi, les bactéries détruisent le médicament en le laissant entrer et en le désactivant. Des applications immédiates dans le traitement des infections cutanées, des plaies, des cathéters ou des implants : les tests montrent que le ciblage de colonies bactériennes ciblées avec une petite concentration de nanomachines permet d’éliminer jusqu'à 17 % des cellules bactériennes, mais ce résultat « grimpe » jusqu’à 65 % avec l'ajout de méropénème. Enfin, une optimisation de l’équilibre machines moléculaires et antibiotique permet d’éliminer 94 % du pathogène. « Sur la peau, dans les poumons ou dans le tractus gastro-intestinal, partout où nous pouvons introduire une source de lumière, nous pouvons attaquer ces bactéries », expliquent les chercheurs qui se concentrent actuellement sur le traitement des plaies et des implants infectés. Mais ils envisagent aussi de s’attaquer aux bactéries transmises par la vessie, responsables des infections urinaires. Article rédigé par Georges Simmonds pour RT Flash Phys | | ^ Haut | |
|
| | | Les parcs éoliens et solaires raccordés au réseau électrique ont atteint 47,7 % de la capacité totale des énergies renouvelables (ER), fin septembre 2019 en France. Avec l'apport des barrages, la production totale des ER couvre 21 % de la consommation électrique. Les énergies éoliennes et solaires ont vu leur capacité nettement accélérer en un an. Les parcs de production de ces deux types d'énergie renouvelable ont augmenté, en termes de puissance, de 296 MW (solaire) et de 240 MW (éolien) rien qu'entre juillet et septembre 2019, selon le panorama de l'électricité renouvelable au 30 septembre. « Les filières éolienne et solaire contribuent à hauteur de 96,6 % à la croissance des énergies renouvelables électriques sur le troisième trimestre 2019. Au 30 septembre 2019, la puissance des parcs éolien et solaire atteint respectivement 15,9 GW et 9,2 GW », explique ce document. Comme précisé ci-dessus, les deux filières totalisent 47,7 % de la capacité de production électrique des énergies de renouvelables, soit autant que le parc hydraulique qui représente 48,4% de cette capacité, le reste (3,9 %) étant issu des bioénergies. La montée en puissance de l'éolien et du solaire est la bienvenue car, du fait d’une très faible pluviométrie, la production hydraulique a baissé de 12,7 % par rapport au troisième trimestre 2018. Résultat : la production d’électricité renouvelable sur les douze derniers mois (99,6 TWh) a baissé de 8 % par rapport aux douze mois précédents du fait d’une diminution de la production hydraulique, que l’augmentation de la production éolienne et solaire n’a pas suffi à compenser. Le taux de couverture moyen de la consommation électrique par les énergies renouvelables sur les douze derniers mois a été de 21 %. Cela représente une baisse par rapport aux douze mois précédents de 1,4 point. Un contretemps qui fait apparaître encore lointain (mais pas hors d'atteinte) l'objectif de 40 % de la consommation d'électricité issue des énergies renouvelables, fixé pour 2030 par la loi de 2015 sur la transition énergétique. Article rédigé par Georges Simmonds pour RT Flash RTE | | | |
| Le Département de l’Hérault a réalisé un nouveau bâtiment à énergie positive exemplaire et innovant, qui multiplie les dispositifs techniques d’économie et de production d’énergie. Accueillant les services des routes et des forestiers sapeurs du Département, cette construction associe panneaux photovoltaïques, sondes géothermiques et bénéficie pour l’enrobé de son parking du système de « route à énergie positive », Power Road d’Eurovia, utilisé pour la première fois en France dans un bâtiment tertiaire. Ce dispositif d’innovation écologique permet de récupérer et stocker l’énergie générée par le rayonnement solaire sur des enrobés. « Les enjeux énergétiques dans le secteur de la construction sont primordiaux dans l’Hérault, qui fait face à une forte croissance démographique. Le Département a choisi le site d’Olonzac pour faire un travail exemplaire et innovant. Si ce chantier expérimental s’avère concluant, les technologies déployées pourraient se généraliser » a déclaré Kléber MESQUIDA, Président du Département de l’Hérault. En été, une chaussée peut atteindre 60°C en surface et 40°C sur ses 10 premiers centimètres : l’essence même du procédé expérimenté à Olonzac consiste donc à récupérer cette énergie générée par le rayonnement solaire sur des enrobés, au plus près des besoins, pour contribuer au chauffage des nouveaux bâtiments. La couche supérieure de la chaussée dans la cour des bâtiments devient alors un échangeur thermique constitué de tubes dans lequel circule un fluide caloporteur. Dans la logique de « circuit court d’énergie », l’énergie solaire thermique captée par les enrobés est emmagasinée sous forme de calories dans le sous-sol par le biais de sondes géothermiques profondes. Dès que le soleil brille, via un système de pompe à chaleur, cette énergie issue du rayonnement solaire sur les enrobés est soit réutilisée directement vers le bâtiment, soit emmagasinée sous forme de calories dans le sous-sol par le biais de puits géothermiques profonds. L’hiver, elle est ensuite récupérée et distribuée pour les besoins de chauffage ou de production d’eau chaude. Ce système utilisant Power Road permet de booster la production de chauffage et d’améliorer le rafraichissement du bâtiment technique, tout en réduisant les émissions de CO2 de 6 tonnes par an (par rapport à une chaudière conventionnelle gaz). Ce procédé innovant va faire l’objet d’une évaluation pendant 2 ans, à travers une convention tripartite de suivi passée entre Eurovia, le CEREMA (Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement) et le Conseil départemental de l’Hérault. Si ce chantier expérimental pour le Département s’avère concluant, la technique pourrait se généraliser à terme, notamment sur les voies et parkings d’autres bâtiments départementaux ou dans les éco-quartiers. Deux ans après son lancement, Power Road a été déployée dans pas moins de 7 projets concrets et plus de 50 sont à l’étude. Cette infrastructure à énergie positive utilise le revêtement bitumineux d’une chaussée comme capteur solaire thermique permettant de restituer la chaleur emmagasinée aux bâtiments et infrastructures environnants. Le procédé a pour intérêt de fournir une énergie propre pour le chauffage ou les systèmes de climatisation des logements, bâtiments et équipements publics. Article rédigé par Georges Simmonds pour RT Flash HD | | ^ Haut | |
|
| | | Une équipe d'astronomes de l'Université d'Harvard (USA) a découvert une gigantesque structure gazeuse en forme de “vague” ondulant dans la Voie lactée, et constituée de pépinières stellaires – où se forment les étoiles – interconnectées. Cette structure hors norme se situe à environ 500 années-lumière de notre Soleil, ce qui est relativement proche en distances astronomiques. Longue et mince, elle fait environ 9000 années-lumière de long et 400 années-lumière de large, avec une forme ondulée, avec une crête de 500 années-lumière au-dessus et en dessous du plan médian du disque de notre galaxie. Elle a été baptisée "vague de Radcliffe" en l'honneur de la station d'observation à l'origine de cette découverte majeure : le Radcliffe Institute for Advanced Study. L’existence de cette structure a été mise au jour alors que les astronomes dressaient une toute nouvelle carte 3D de notre galaxie à partir de données du télescope spatial européen Gaïa, lancé en 2013. « Cette découverte transforme la vision que l’on avait depuis cent cinquante ans des pépinières stellaires proches, considérées jusque-là comme formant un anneau en expansion », souligne la chercheuse Alyssa Goodman, qui a présenté ces résultats lors de la réunion annuelle de l’American Astronomical Society à Honolulu. Cette structure s’étend sur 9 000 années-lumière et constitue ce que l’on appelle un “bras local” de la Voie lactée, une sorte de branche en spirale autour du noyau de la galaxie. Alyssa Goodman précise, avec enthousiasme, que « C’est la plus grande structure gazeuse que nous connaissons dans la Voie lactée. C’est juste en face de nous. C’est incroyable que ce soit si près » ! La présence de cette gigantesque pépinière soulève de nombreuses questions. L'une des hypothèses pour expliquer ce phénomène est qu’une galaxie beaucoup plus petite a percuté cette partie de la Voie lactée dans un passé lointain, déclenchant des ondulations qui se sont propagées comme celles d’une pierre jetée dans un étang. Une hypothèse plus exotique suggère qu’un rôle soit joué par la mystérieuse matière noire qui se cache autour des galaxies. Article rédigé par Georges Simmonds pour RT Flash Phys.org | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | En Europe, les transports sont responsables de près de 30 % des émissions totales de CO2 fossile, et 72 % de ces émissions proviennent du transport routier. Si l’électrification du transport individuel pourrait constituer une solution, la réduction des émissions du transport des marchandises - par camion ou bus - est beaucoup plus problématique. Des chercheurs de l’EPFL proposent une solution inédite pour réduire les émissions liées à ce secteur : capturer le CO2 directement sur le pot d’échappement, le liquéfier dans un boîtier situé sur le toit du véhicule, et le ramener sous forme liquide à la pompe, où il sera transformé en carburant conventionnel grâce à l’énergie renouvelable. Cette recherche est coordonnée par le groupe Ingénierie des Procédés et des Systèmes Energétiques de la Faculté des sciences et techniques de l’Ingénieur, dirigé par François Maréchal. Elle fait l’objet d’un brevet et a été publiée dans Frontiers in Energy Research. Plusieurs technologies de l’EPFL sont mises en commun pour parvenir à capturer le CO2, puis à le faire passer de l’état gazeux à liquide, tout en utilisant au maximum l’énergie disponible à bord, telle que la chaleur du moteur. Dans leur étude, les scientifiques utilisent l’exemple d’un camion de marchandises. D’abord, les émissions du véhicule sont récupérées à même le pot d’échappement et refroidies, et l’eau est séparée des gaz. Pour isoler le CO2 des autres gaz (azote et oxygène), on passe par un système d’adsorption à température modulée, utilisant des matériaux ou adsorbants à base de metal–organic frameworks (MOFs), conçus spécialement pour absorber le CO2. Ces matériaux sont développés par les équipes d’Energypolis de l’EPFL Valais Wallis, menées par Wendy Queen. Une fois saturé en CO2, ce matériau est chauffé, de sorte à extraire du CO2 pur. Des turbocompresseurs à haute vitesse développés par le Laboratoire de Jürg Schiffmann à EPFL Neuchâtel utilisent la chaleur du moteur pour comprimer le CO2 et le rendre liquide. Ce dernier est stocké dans un réservoir. Il pourra être transformé en carburant conventionnel dans une station spécifique, en utilisant de l’électricité verte. « Il suffira que le camion le dépose, au moment de faire le plein », indique François Maréchal. La totalité du procédé sera effectuée dans une capsule de 2mètres x 0.9 mètre x 1,2m, posée au-dessus de la cabine du conducteur. « Le poids de la capsule et du réservoir ne représente que 7 % de la charge utile du véhicule », précise François Maréchal. « Le processus en lui-même est peu énergivore, grâce à l’optimisation de toutes les étapes ». Les calculs des chercheurs indiquent qu’un camion consommant 1 kilo de carburant conventionnel permettrait de produire 3kg de CO2 liquide, et que la transformation s’effectue sans pénalité énergétique. Quant aux 10 % des émissions de CO2 non-recyclables, les chercheurs proposent de les compenser en utilisant la biomasse. En théorie, ce système pourrait fonctionner pour tout type de véhicules poids-lourds, des cars et même des bateaux, quel que soit le carburant utilisé. L’avantage de ce système au niveau industriel est qu’il permet, contrairement aux solutions électriques ou à hydrogène, de conserver la flotte de poids-lourds qui circulent déjà sur nos routes, mais de les rendre neutres en termes d’émissions carbone. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Considérés comme “un produit chimique toxique inutile et meurtrier” par l’Organisation mondiale de la Santé, qui s’est donnée pour mission de les éradiquer d’ici 2023, les acides gras trans sont aussi présents naturellement dans les produits laitiers et la viande de ruminants, telles que les vaches et les brebis. Mais ce sont ceux présents dans les produits industriels, et résultant de l'hydrogénation partielle des huiles végétales insaturées, qui s’avèrent être les plus néfastes pour notre santé. De nombreuses études ont en effet pointé le rôle des acides gras saturés dans le développement des maladies cardiovasculaires. Cependant, selon une nouvelle étude publiée dans Advances in Nutrition, les acides gras trans n’auraient pas le même effet sur l’organisme que les autres acides gras, saturés et cis insaturés. Outre leur rôle dans le développement dans les maladies cardiovasculaires, largement documenté, les chercheurs insistent ainsi sur leur implication dans l’inflammation et le stress cellulaire. Des expériences menées sur des cultures de cellules et chez l’animal ont montré que, contrairement aux autres acides gras qui réduisent l’inflammation et le stress endoplasmique, les acides gras trans aggravent la calcification des artères, ce qui a pour conséquence à long terme de les boucher. Cette nouvelle étude montre par ailleurs que les acides gras trans industriels favorisent le stockage des graisses dans le foie au détriment du tissu adipeux, ce qui n’est pas le cas des acides gras cis insaturés et acides gras saturés. Les travaux menés dans des hépatocytes et ses adipocytes cultivés démontrent notamment que les acides gras trans industriels stimulent la production et le stockage des graisses au niveau du foie, ce qui favorise la biosynthèse du cholestérol. Article rédigé par Georges Simmonds pour RT Flash AIN | | | |
| Une équipe de recherche de l’Université de l'Alberta explore une nouvelle voie contre la maladie d'Alzheimer : ces chercheurs ont montré qu'une protéine du cerveau, CD33, sous une version spécifique, semble en effet protéger contre la maladie. Ces recherches présentées dans la revue Communications Biology, ouvrent la possibilité, en reproduisant ce processus par manipulation génétique de CD33, « d’inciter » la microglie à nettoyer les plaques neurodégénératives qui s’accumulent dans le cerveau et à freiner, ainsi voire inverser la neurodégénérescence. La recherche montre que les globules blancs dans le cerveau humain sont régulés par cette protéine, appelée CD33, un récepteur immunomodulateur lié à la sensibilité à la maladie d'Alzheimer, car la protéine régule la phagocytose (ou l’élimination de certains déchets) dans la microglie. Or ces cellules immunitaires du cerveau appelées « microglies » jouent un rôle essentiel dans la maladie d'Alzheimer, explique l’auteur principal, Matthew Macauley, professeur de chimie à Alberta, avec des fonctions à la fois nocives ou protectrices. Un nombre croissant de preuves implique la protéine CD33 dans le contrôle de la fonction des cellules microgliales dans le cerveau. Des études d'association pangénomique ont ainsi révélé qu'un polymorphisme nucléotidique unique (SNP) au sein du gène CD33 est corrélé à la sensibilité à la maladie d'Alzheimer. Mais il existe aussi un allèle protecteur de CD33 plus rare qui confère à ses porteurs une protection contre la maladie : les sujets qui portent une seule copie de cet allèle rare CD33 sont statistiquement moins susceptibles de développer la maladie, 2 copies étant encore plus protectrices. Ainsi, sous cette version, le gène CD33 réduit le risque de développer la maladie. Si moins de 10 % de la population possède cette version protectrice de CD33, cette version de CD33 est bien un facteur de réduction du risque. Les chercheurs font alors une seconde hypothèse : le fait que CD33 soit présente dans la microglie suggère que ces cellules immunitaires pourraient exercer un rôle protecteur -lié à CD33- contre la maladie d'Alzheimer, à condition « d’avoir la bonne version ». En configurant génétiquement CD33 dans la microglie, il apparaît donc possible de relancer ou d’accroître le processus de phagocytose ou de nettoyage des plaques neurodégénératives. C’est donc une nouvelle piste thérapeutique possible qui permettrait de relancer la phagocytose et lutter contre l'accumulation de plaque. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs américains dirigés par William J. Sandborn et Marc Ferrante (Université de Californie-San Diego) ont mené une étude de phase 2 sur le mirikizumab, un anticorps monoclonal dirigé contre la sous-unité p19 de l'IL23, proposé à des patients atteints de RCH. Son prédécesseur, l’usketinumab, s’était révélé efficace en ciblant les récepteurs de l’IL 12 et 23 chez les patients porteurs d’une Maladie de Crohn, d’un psoriasis et récemment d’une RCH. Des études préliminaires montraient que le ciblage unique de l’IL23 pourrait s’avérer efficace. Les 249 patients de l’étude, provenant de 14 pays, porteurs d’une RCH modérée à sévère, ont été recrutés de janvier 2016 à septembre 2017. Ils ont été répartis au hasard dans différents groupes recevant : un placebo par voie intraveineuse (n = 63), 50 mg de mirikizumab (n = 63) ou 200 mg (n = 62) avec une posologie ajustée en fonction de l'exposition ou 600 mg de mirikizumab avec une posologie fixe (n = 61) aux semaines 0, 4 et 8. Un peu moins des deux tiers des patients avaient déjà été traités par un agent biologique et un tiers par 2 agents biologiques. Un ajustement posologique était possible dans les groupes 50 et 200 mg, selon les concentrations sériques du médicament. A la semaine 12, 15,9 %, 22,6 % et 11,5 % des patients des groupes 50 mg, 200 mg et 600 mg ont présenté une rémission clinique par rapport à 4,8 % des sujets sous placebo, soit un résultat non significatif pour la plus forte dose. Une réponse clinique était alors observée pour 20,6 % des patients du groupe placebo, contrastant avec celle observée respectivement pour 41,3 %, 59,7 % et 49,2 % des malades traités par mirikizumab 50, 200 et 600 mg. Une seconde randomisation a été effectuée à la 12e semaine chez ces répondeurs cliniques (diminution du score de Mayo à 9 points, incluant un score ≥ 2 points et ≥ 35 % par rapport aux valeurs initiales, intégrant une diminution du sous-score des saignements rectaux). Ils ont été soumis à un traitement d'entretien par du mirikizumab dosé à 200 mg par voie sous-cutanée toutes les 4 semaines (n = 47) ou toutes les 12 semaines (n = 46). Le critère principal d'évaluation était la rémission clinique et endoscopique basée sur les sous-scores de Mayo, à la 12e semaine. Une réponse clinique à 52 semaines a été obtenue chez 80,9 % et 76,1 % des sujets traités toutes les 4 ou 12 semaines. Cette rémission clinique concernait ainsi 46,8 % et 37 % des patients initiaux. Les principaux événements indésirables rapportés au cours de la phase d’induction étaient l’anémie, la rhinopharyngite et les maux de tête. Ces derniers étaient également observés lors de la phase d’entretien. Le mirikizumab en sous-cutané permet donc d’obtenir une réponse clinique à 1 et 3 mois qui se maintient ensuite dans le temps chez les sujets répondeurs. Son profil de tolérance est satisfaisant. Il est intrigant de constater que les faibles doses de cet anticorps monoclonal sont plus efficaces que les plus fortes doses. Article rédigé par Georges Simmonds pour RT Flash Gastro | | | |
| Des chercheurs canadiens de l’Université de Toronto ont identifié une protéine clé qui soutient la croissance de nombreux cancers colorectaux. Les résultats de l’étude révèlent qu’une protéine appelée Importin-11 transporte une protéine cancérigène appelée bêta-caténine (β-caténine) dans le noyau des cellules cancéreuses du côlon, où elle peut entraîner la prolifération cellulaire. L’inhibition de cette étape de transport pourrait bloquer la croissance de la plupart des cancers colorectaux causés par des niveaux élevés de β-caténine. Environ 80 % des cancers colorectaux sont associés à des mutations d’un gène appelé APC — codant la protéine APC (adenomatous polyposis coliqui), se traduisant par des niveaux élevés de la protéine β-caténine. Cette augmentation de la quantité de β-caténine est suivie de l’accumulation de protéines dans le noyau cellulaire, où elle peut activer de nombreux gènes qui stimulent la prolifération cellulaire et favorisent la croissance et le maintien des tumeurs colorectales. Mais la façon dont la β-caténine pénètre dans le noyau cellulaire après l’augmentation de ses niveaux est un processus encore mal compris. « Parce que les mécanismes moléculaires qui sous-tendent le transport nucléaire de la β-caténine restent flous, nous avons cherché à identifier les gènes nécessaires à l’activité continue de la β-caténine dans les cellules cancéreuses colorectales hébergeant des mutations d’APC », explique Stéphane Angers, professeur au Département des sciences pharmaceutiques de la Faculté de pharmacie Leslie Dan, de l’Université de Toronto. En utilisant la technologie d’édition génétique CRISPR, Angers et ses collègues, y compris l’étudiante diplômée Monika Mis, ont développé une nouvelle technique qui leur a permis de cribler le génome humain pour les gènes qui soutiennent l’activité de la β-caténine dans les cellules du cancer colorectal, après que ses niveaux aient été augmentés par des mutations d’APC. L’un des principaux gènes qu’ils ont identifiés était IPO11, qui code pour une protéine appelée Importine-11, connue pour être impliquée dans l’importation nucléaire. Article rédigé par Georges Simmonds pour RT Flash JCB | | | |
| Selon une étude réalisée par Philipp Schustek, Alexandre Hyafil et Rubén Moreno-Bote, chercheurs au Centre pour le cerveau et la cognition de l'université Pompeu de Barcelone (Espagne), pour comprendre et maîtriser son environnement, notre cerveau utilise des modèles d'inférence probabilistes très détaillés pour déterminer si nous sommes en sécurité ou en danger. Ces travaux permettent de mieux comprendre comment les humains perçoivent leur environnement et prennent leurs décisions. Selon les chercheurs, une information recueillie dans notre environnement immédiat n'est pas suffisante pour déterminer si nous sommes dans un environnement sûr ou dangereux, c'est pourquoi notre cerveau utilise un modèle d'inférence probabiliste élaboré pour tirer une conclusion. Les chercheurs ont découvert que le cerveau humain possède une forme raffinée de représentation de l'incertitude à plusieurs niveaux hiérarchiques, qui prend également en compte le contexte de ce qu’il perçoit. Selon Rubén Moreno-Bote, coordonnateur du groupe de recherche en neurosciences théoriques et cognitives à l’université Pompeu, « les notions de probabilité, bien qu'intuitives, sont très difficiles à quantifier et à utiliser de façon rigoureuse. Par exemple, mes étudiants en statistique échouent souvent à résoudre certains des problèmes que je pose en classe. Dans notre étude, nous constatons qu'un problème mathématique complexe impliquant l'utilisation des règles de probabilité les plus sophistiquées peut être résolu intuitivement s'il est présenté simplement et dans un contexte naturel ». Les chercheurs ont réuni un groupe de sujets, et leur ont demandé de se projeter dans un aéroport. Ils devaient prédire la probabilité que le prochain avion transportant des passagers contienne un plus ou moins grand nombre de personnes d'un certain type, en observant les passagers des avions précédents. Rubén Moreno-Bote explique sa démarche. « On a demandé aux participants de compter, par exemple, les supporters du Barça et ceux de Madrid arrivant à l'aéroport, puis de prédire la probabilité que plus de supporters arrivent dans le prochain vol. En général, cette structure de tâches crée des dépendances hiérarchiques entre les variables cachées à résoudre (en déduisant le contexte des observations précédentes) et en faisant passer le message (en déduisant l'état actuel en combinant les observations actuelles avec le contexte inféré) ». Les résultats ont montré que les sujets, à partir de leurs observations préliminaires, ont construit une représentation probabiliste de la situation, ce qui a aidé les chercheurs à comprendre comment ces participants développent des images mentales de leur environnement et comment ils attribuent et perçoivent l'incertitude du contexte. Les chercheurs ont découvert que le cerveau humain était capable d'une représentation mathématique probabiliste de l’environnement, qui a sûrement affecté la perception de notre environnement et nos prises de décisions. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs américains du département de recherche en génétique moléculaire du Centre médical de Houston (Texas) ont découvert un nouveau mécanisme contribuant au maintien et à la réparation des os chez l’adulte. La réparation osseuse chez l'adulte repose sur l'activation des cellules souches osseuses, qui restent encore mal caractérisées. Des cellules souches osseuses ont été trouvées à la fois dans la moelle osseuse à l'intérieur de l'os mais aussi dans le périoste -la couche externe du tissu- qui enveloppe l'os. Des études antérieures ont montré que « ces deux populations de cellules souches, bien qu'elles partagent de nombreuses caractéristiques, ont également des fonctions uniques et des mécanismes de régulation spécifiques », explique le docteur Dongsu Park, professeur de génétique moléculaire à Houston. Parmi ces deux populations, les cellules souches périostales sont les moins bien connues. Si les scientifiques savent qu’elles constituent une population hétérogène de cellules capables de contribuer à l’épaisseur, à la formation et à la réparation des fractures, personne n’était encore parvenu à distinguer les différents sous-types de cellules souches osseuses pour étudier les régulations de leurs différentes fonctions. Ici toutefois, en travaillant sur des souris, Dongsu Park et ses collègues ont réussi à mettre au point une technique pour identifier différentes sous-populations de cellules souches périostales, définir leur contribution à la réparation des fractures osseuses et identifier les facteurs spécifiques qui régulent leur migration et leur prolifération dans des conditions physiologiques. Chez les souris, ils ont découvert des marqueurs spécifiques pour cette catégorie de cellules. Ils ont identifié un sous-ensemble distinct de cellules souches contribuant à la régénération osseuse des adultes tout au long de leur vie. Ils ont également pu observer que les cellules souches périostales répondaient aux molécules inflammatoires, les chimiokines, habituellement produites lors de lésions osseuses. Dans le détail, les souches périostales ont des récepteurs qui se lient à la chimiokine CCL5. Cette dernière envoie un signal aux cellules pour qu’elles migrent vers l’os blessé et le réparent. En supprimant le gène CCL5 chez des souris, les chercheurs ont remarqué des défauts dans la réparation osseuse, ce qui a retardé la guérison. En revanche, quand ils ont administré du CCL5 aux souris qui n’en avaient plus, les os récupéraient plus vite. « Nos découvertes contribuent à une meilleure compréhension de la façon dont les os adultes guérissent. Nous pensons qu'il s'agit de l'une des premières études à montrer que les cellules souches osseuses sont hétérogènes et que les différents sous-types ont des propriétés uniques régulées par des mécanismes spécifiques », explique Dongsu Park. A terme, ces découvertes pourraient donc avoir de potentielles applications thérapeutiques, notamment chez les personnes atteintes d’ostéoporose ou bien de diabète. En effet, en raison de possibles complications neurologiques, visuelles ou rénales, les personnes diabétiques peuvent avoir tendance à chuter et à souffrir de fractures. Par ailleurs, la fragilité osseuse des diabétiques est probablement due à une modification du remodelage osseux et notamment à une augmentation de la résorption osseuse. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Se pourrait-il que la maladie d'Alzheimer soit une maladie à prion, comme la maladie de Creutzfeldt-Jakob ? L'hypothèse divise la communauté scientifique depuis plusieurs années, mais elle vient d'être sérieusement confortée par une étude réalisée par des chercheurs du CEA de Fontenay-aux-Roses. Ce travail unique au monde s'appuie sur sept ans d'investigations méticuleuses sur un petit primate originaire de Madagascar, le microcèbe. Les maladies à prion ont été découvertes en Papouasie-Nouvelle-Guinée où, dans les années 1950, un chercheur américain, Daniel Carleton Gajdusek, décédé en 2008 (Prix Nobel 1976), s'intéressa au mal mystérieux qui frappait alors une tribu d'aborigènes, les Fore, pratiquant des rites anthropophages. Cette maladie neurodégénérative, le kuru, frappait surtout les femmes et les enfants qui se voyaient donner à manger les viscères et autres bas-morceaux - dont le cerveau - des défunts de leur tribu (les hommes, auxquels étaient réservées les parties nobles que sont les muscles, étaient épargnés). Gajdusek comprit et prouva que le vecteur de l'infection se trouvait dans l'encéphale. Il le démontra en injectant chirurgicalement, dans le cerveau de chimpanzés, des « broyats » de cerveaux humains prélevés sur les guerriers Fore décédés. Les chimpanzés ainsi contaminés tombaient malades du kuru. Plus tard, un autre chercheur américain, Stanley Prusiner (Prix Nobel 1997), découvre l'identité du coupable, responsable non seulement du kuru mais des différentes formes d'encéphalopathies spongiformes transmissibles (tremblante du mouton, maladie de la vache folle, maladie de Creutzfeldt-Jakob) : il pointa du doigt une protéine appelée le prion. Cette découverte fut un coup de tonnerre dans le ciel de la médecine. « Elle mettait à bas le dogme qui prévalait jusqu'ici selon lequel il était exclu qu'une simple protéine, étant dénuée d'acide nucléique (ADN ou ARN), puisse transmettre une maladie », raconte le biologiste du CEA Marc Dhenain, principal auteur de la publication sur la maladie d'Alzheimer. Stanley Prusiner reste convaincu que la maladie d'Alzheimer est, elle aussi, une maladie à prion. Pour tester cette « hypothèse prion », de premières expériences ont été réalisées sur des souris génétiquement modifiées de telle sorte qu'elles reproduisent certaines caractéristiques pathologiques de la maladie d'Alzheimer, que les rongeurs ne développent pas naturellement. Mais les souris transgéniques constituent des modèles animaux trop éloignés du modèle humain pour permettre d'obtenir des résultats vraiment conclusifs. « Nous nous sommes dit que la seule façon de tester sérieusement l'hypothèse prion était de le faire sur des primates non humains, dont le cerveau se rapproche beaucoup plus de celui de l'homme », raconte Marc Dhenain. L'équipe du CEA a donc décidé de refaire entre 2012 et 2019 avec la maladie d'Alzheimer ce que Gajdusek avait fait dans les années 1950 avec celle du kuru. Les chercheurs ont, pour la première fois, injecté des broyats de cerveaux humains malades (collectés auprès de banques d'échantillons) dans ceux de primates non humains sains, pour observer ce qu'il se passait. Ils ont alors pu constater que, six mois après les injections, les microcèbes commençaient tous à être affectés par des problèmes de mémoire. En outre, les IRM pratiquées régulièrement ont permis de mettre en évidence l'atrophie de l'hippocampe (siège de la mémoire), ce qui est l'une des signatures cérébrales de la maladie. Mieux encore : lorsque les microcèbes finissaient par être sacrifiés pour qu'on puisse disséquer leur cerveau, les observations au microscope ont révélé la présence de plaques amyloïdes à l'extérieur des neurones et de dégénérescences neurofibrillaires à l'intérieur de ceux-ci, soit les deux lésions caractéristiques de cette forme de démence ! Ces recherches montrent donc de manière très solide que la maladie d'Alzheimer, bien qu'elle ne soit pas contagieuse, est bel et bien transmissible de cerveau à cerveau. Dans les maladies à prion, c'est la configuration 3D anormale de cette protéine qui est cause de la maladie : le prion mal replié sur lui-même va en effet contaminer les prions sains et les déformer à son contact. D'où l'idée que les prions pourraient bien être impliqués, à des degrés qui restent à préciser, dans certaines maladies neurodégénératives, dont Alzheimer ou Parkinson. Dans la maladie d'Alzheimer, les deux types de lésions observées, les plaques amyloïdes et les dégénérescences neurofibrillaires, sont dues à deux protéines, le peptide amyloïde et la protéine tau, qui, lorsqu'elles sont saines, participent du bon fonctionnement du cerveau. Mais, alors que, dans un cerveau sain, ces deux protéines se trouvent dans une certaine configuration qui les rend solubles, dans un cerveau malade, leur configuration change et elles cessent d'être dégradables ; c'est ce qui va provoquer leur accumulation dans le cerveau. Dans le cas de la maladie d'Alzheimer, le peptide amyloïde se replie pour former une structure appelée le « feuillet bêta-plissé », forme sous laquelle il est insoluble. Sous cette forme très particulière, il provoque la formation d'autres feuillets bêta-plissés qui finissent par s'agréger les uns aux autres jusqu'à former les plaques observées dans le cerveau des malades. Ce mécanisme ressemble de manière troublante à celui mis en évidence par Stanley Prusiner dans les maladies à prion. Marc Dhenain reste toutefois prudent ; il souligne simplement que « Ces recherches montrent pour l'instant que les protéines amyloïdes et tau sont similaires à des prions », et précise que d'autres études seront nécessaires pour être certains que la maladie d'Alzheimer est bien une maladie à prion. Affaire à suivre… Article rédigé par Georges Simmonds pour RT Flash ANC | | | |
| Une équipe de recherche menée par Christophe Bernard, chercheur Inserm, et Viktor Jirsa au sein de l’Institut de Neurosciences des Systèmes (Inserm/Aix-Marseille Université), a montré que la connaissance de la carte de la structure cérébrale d'un individu permet de prédire le fonctionnement du cerveau, le développement potentiel de maladies neurologiques et leur traitement. Depuis une trentaine d’années, les rapides progrès de l’imagerie cérébrale (imagerie par résonance magnétique ou IRM) ont permis de grandes avancées en neurosciences. Cette technique a ouvert la voie à une meilleure compréhension du cerveau et des mécanismes de certaines pathologies. L’IRM permet d’avoir accès à l’organisation générale du cerveau, notamment la carte des connexions neuronales qui existent entre les différentes régions cérébrales (un peu comme une carte des routes qui relient les différentes villes entre elles). « Cette carte est unique à chaque personne, elle est même plus précise qu’une empreinte digitale », souligne le chercheur Inserm Christophe Bernard. Pour poursuivre l’analogie, les maladies neurologiques, telles que la maladie d’A lzheimer ou les épilepsies, sont associées à une réorganisation des cartes. Ainsi, les connexions entre régions cérébrales sont modifiées, certaines « routes » disparaissent. Mais s’il est possible de visualiser très précisément le cerveau de chaque individu après avoir obtenu la carte des connexions avec l’IRM, est-il possible à partir de là de prévoir tout aussi précisément son fonctionnement cérébral ainsi que le développement éventuel de pathologies et leur traitement ? La connaissance de cette « carte » est-elle suffisante pour faire ce type de prédiction de manière individuelle, chez chaque patient ? C’est à ces questions que Christophe Bernard, chercheur à l’Institut de Neurosciences des Systèmes (Inserm/Aix-Marseille Université) et ses collègues ont tenté de répondre dans une nouvelle étude publiée dans la revue PNAS. Les chercheurs ont d’abord visualisé très précisément par imagerie cérébrale les connexions existantes entre les régions cérébrales du cerveau de plusieurs souris. À partir de ces « cartes », ils ont créé des modèles virtuels du cerveau de chaque souris grâce à une technologie appelée « Cerveau Virtuel », en collaboration avec des chercheurs de Technion en Israël. Dans chacun de ces cerveaux virtuels, les chercheurs ont ensuite généré une activité électrique, mimant ce qui se passe dans un cerveau réel. Ceci leur a permis d’étudier quelle région du cerveau communique avec quelle région, résultats qui ont été comparés avec les données expérimentales obtenues à l’état de repos chez chaque souris en imagerie fonctionnelle. Les chercheurs ont ainsi montré que la connaissance de la « carte » de chaque souris suffit à expliquer l’activité du cerveau de cette même souris comme vue en imagerie fonctionnelle. Ils ont aussi pu démontrer quelles connexions font que chaque cerveau de souris est unique. Ces résultats devront être validés chez l’Homme, mais ils permettent d’ores et déjà d’ouvrir la voie à la médecine personnalisée du futur. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Avoir un parent qui souffre de dépression est l'un des plus grands facteurs de risque connus. Cette large étude d'imagerie cérébrale révèle justement des différences structurelles dans le cerveau d’enfants dont les parents souffrent de dépression. Ces observations objectives, présentées dans le Journal of the American Academy of Child & Adolescent Psychiatry, pourraient contribuer à expliquer l’impact important des antécédents parentaux. Les chercheurs ont analysé les images du cerveau de plus de 7.000 enfants participant à l’Adolescent Brain Cognitive development (ABCD) study, une étude portant sur le développement cognitif lancée à l’initiative des National Institutes of Health (NIH). Environ un tiers des enfants avaient l’un de leurs parents souffrant de dépression. L’imagerie montre que chez ces enfants à risque élevé, le putamen droit, une zone liée à la récompense, à la motivation et au plaisir, est plus petit que chez les enfants sans antécédents parentaux de dépression. Ces résultats mettent en évidence un facteur de risque possible -cette taille réduite du putamen droit- déjà associé par de précédentes études à l'anhédonie (ou capacité réduite à ressentir du plaisir), une condition également impliquée dans la dépression mais aussi dans l’usage de substances, la psychose et les comportements suicidaires. Ce volume réduit du putamen peut donc conférer une vulnérabilité à la dépression mais plus largement, à des troubles mentaux généralisés. Pouvoir identifier de manière fiable ces différences pourrait aussi faciliter la détection précoce du risque et conduire à une meilleure prise en charge de la dépression dès l’adolescence. Article rédigé par Georges Simmonds pour RT Flash JAACAP | | ^ Haut | |
|
| Anthropologie et Sciences de l'Homme | |
| | | L’histoire de l’humanité est difficilement séparable de la notion de hiérarchie sociale. Les civilisations les plus anciennes, comme les Sumériens ou les Égyptiens, étaient déjà organisées en classes sociales – des strates inégalitaires dans la population qui offrent plus ou moins de privilèges. Une étude réalisée par Alissa Mittnik, de l’institut Max-Planck d’économie à Iéna, en Allemagne, et ses collègues, confirme que des structures sociales complexes existaient déjà il y a 4 000 ans. Au commencement de l’âge du Bronze, des individus de classes sociales différentes se côtoyaient. Les élites vivaient entourées de membres de classes sociales inférieures, et les hommes de ces élites épousaient des femmes socialement élevées venues d’autres communautés. Ces sociétés humaines semblent donc avoir été régies par un système complexe de classes sociales qui se transmettait de génération en génération. Les chercheurs ont analysé l’ADN de plus d’une centaine de squelettes provenant d’un site funéraire à proximité d’Augsbourg, en Allemagne, témoignant des sociétés agraires ayant existé en Europe centrale de la fin du Néolithique à l’âge du Bronze, de - 2800 à - 1300. Ils ont déterminé le sexe et le degré de parenté des individus enterrés ensemble dans chacun des foyers. Ces analyses ont révélé que les individus partageant des liens de parenté étaient inhumés avec des biens et des effets personnels transmis au fil des générations. À l’inverse, les autres individus du foyer, sans lien avec les autres, étaient enterrés sans objets, ce qui suggère qu’ils étaient des « membres » inférieurs de la famille, ne recevant pas de rites funéraires. « On ne sait pas si ces individus de statut inférieur étaient des esclaves, des employés, ou autre », note Philipp Stockhammer, de l’université Louis-et-Maximilien de Munich, co-auteur de l’étude. « Mais on observe que dans chaque foyer, des individus de statuts très différents vivaient ensemble ». Article rédigé par Georges Simmonds pour RT Flash PLS | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Les bornes de recharge pour véhicules électriques seront-elles bientôt obsolètes ? C’est le pari que fait le constructeur automobile Volkswagen qui travaille sur un robot autonome capable de venir tout seul recharger une voiture électrique. Placés dans des parkings, ces robots pourraient se déplacer tout seuls afin de recharger les voitures électriques qui en ont besoin. Cela éviterait notamment les embouteillages au niveau des bornes de recharge, encore trop rares par rapport au nombre de véhicules électriques en circulation (qui ne cesse d’augmenter). « Le problème bien connu des stations de recharge bloquées par d’autres véhicules va disparaître avec notre concept », soutient Mark Möller, directeur du développement chez Volkswagen, dans un communiqué. « Vous n’avez qu’à choisir n’importe quelle place de parking comme d’habitude, et laisser le reste à notre assistant électronique ». Entièrement autonomes, ces robots seraient dotés de caméras et de capteurs pour se déplacer en évitant les obstacles. En sortant de sa voiture, le conducteur pourrait réserver sa recharge sur son smartphone. Un robot se dirigerait alors vers le véhicule avec des « wagons-batteries » stockant chacun 15 kWh d’énergie, et doté d’une puissance de charge allant jusqu’à 50 kW. Une fois la charge terminée, le robot ramènerait les wagons pour qu’ils soient eux-mêmes rechargés à la base. « Cette approche a un potentiel économique énorme », poursuit Mark Möller. « Le travail de construction tout comme les coûts d’assemblage des infrastructures de recharge peuvent être considérablement réduits à travers l’utilisation de ces robots ». Article rédigé par Georges Simmonds pour RT Flash Futurism | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|