| | Edito Un siècle après son élaboration, la physique quantique provoque une seconde révolution scientifique
Il y a presque un siècle, après plusieurs décennies de réflexions théoriques et d’expérimentations, la physique quantique, construite par une dizaine de physiciens de génie, dont Einstein, était formalisée par Werner Heisenberg, avec son principe d’incertitude, et Erwin Schrödinger, découvreur de la fonction d’onde. Il fallut cependant attendre les expériences décisives d’Alain Aspect, à l’Institut d’optique d’Orsay, en 1982, puis d’Antoine Suarez, à l’Université de Genève, en 2001, pour que soit définitivement établie la nature irréductiblement quantique de l’infiniment petit, caractérisée par une corrélation fondamentale des particules, non seulement spatiale, mais aussi temporelle, ce qui signifie concrètement que, lorsque deux photons sont intriqué s, toute action sur l’un agit instantanément sur l’autre et qu’il devient en outre impossible de déterminer la succession des événements concernant ces photons, comme si le temps cessait d’exister pour ces particules…. Un siècle avant la naissance de la mécanique quantique, avec Max Planck, le grand scientifique anglais Thomas Young, dans une expérience demeurée célèbre, avait eu l’idée, en 1801, de faire passer un faisceau de lumière à travers deux fentes parallèles, et de le projeter sur un écran. Il observa alors que la lumière, en se diffractant au passage des fentes, produisait sur l'écran des franges d'interférence, c'est-à-dire une alternance de bandes éclairées et non-éclairées. C’est ainsi que Young pu émettre l’hypothèse de la nature ondulatoire de la lumière. Au début du XXème siècle, l’expérience de Young fut raffinée et répétée avec de nombreuses familles de particules (électron, photon, neutron), ce qui permit de confirmer la nature fondamentalement duale de ces particules, qui se comportent bien comme des ondes, tant qu’on ne les mesure pas, mais redeviennent immanquablement des particules ponctuelles, dès lors qu’on essaye de les mesurer. Mais, jusqu’à présent, les physiciens avaient dû se contenter de calculs statistiques, sur un grand nombre de particules, pour vérifier cette dualité, en observant la probabilité de voir ces particules passer par une fente, plutôt que par l’autre. Cette limitation a sauté il y a quelques semaines, avec une expérience que l’on croyait impossible à réaliser, mais qu’ont pourtant réussie des physiciens de l 8217;Université de Vienne (Voir APS). « Nous ne pouvions plus nous satisfaire d’expliquer le comportement des particules individuelles, uniquement sur la base de résultats qui ne deviennent visibles que grâce à l’étude statistique de nombreuses particules. Nous avons donc réfléchi à la manière dont le phénomène d’interférence bidirectionnelle peut être prouvé sur la base de la détection d’une seule particule » souligne Holger Hofmann, l’un des chercheurs qui a imaginé cette superbe expérience. Celle-ci a utilisé des neutrons de la source de neutrons de l’Institut Laue-Langevin à Grenoble : Les neutrons sont projetés sur un cristal qui divise l’onde quantique du neutron en deux ondes partielles, selon le même principe que l’expérience classique de la double fente. Ces deux ondes partielles de n eutrons vont alors se déplacent le long de deux chemins différents, avant de se recombiner à nouveau et d’être mesurées. Mais l’idée de génie de cette équipe, c’est d‘avoir su exploiter une autre propriété du neutron, son spin, qui correspond au moment cinétique de la particule (sa rotation sur elle-même). Or, ce spin peut être modifié par un champ magnétique, qui peut le faire pointer dans un sens, ou dans l’autre. Si le spin du neutron est mis en rotation sur une seule des deux voies possibles, on peut déterminer ensuite quelle voie il a choisie. Dans ce cadre expérimental, les chercheurs savaient exactement quelles valeurs de spin le neutron pouvait prendre, en fonction du trajet choisi. C’est ainsi qu’ils ont pu observer, pour la première fois, que chaque neutron était présent pour un tiers dans un trajet et pour deux tiers dans l’autre. Comme le souligne l’étude, « Ces résultats de mesure confirment sans ambiguït é la théorie quantique classique, et sans qu’il soit besoin de recourir à des arguments statistiques insatisfaisants : lors de la mesure d’une seule particule, notre expérience montre qu’elle a dû emprunter deux chemins en même temps ». Une autre étude très remarquée a été publiée il y a quelques jours par des physiciens japonais de l’Institut Riken. Ceux-ci ont montré que le phénomène d’intrication quantique à longue distance peut persister, même à des températures très supérieures au zéro absolu, si les conditions correctes sont remplies (Voir Sciencesprings). Ces recherches montrent notamment qu’il faut au moins trois sous-systèmes de communication pour maintenir sur de longues distances une bonne intrication quantique. Comme le souligne le Professeur Keijo Saito, co-auteur de l’étude, « Ce résultat a ouvert la porte à une meilleure compr éhension des relations entre température et intrication quantique sur de grandes distance. Nos recherches vont faciliter le développement de futurs dispositifs quantiques qui fonctionnent à température ambiante, ce qui lèvera un verrou majeur à l’essor des technologies quantiques ». Des scientifiques de l’Institut QuTech de l’Université de Delft aux Pays-Bas, ont publié une autre étude, également remarquable, il y a quelques jours, montrant qu’il était possible de téléporter de manière fiable, contrôlée, et totalement inviolable, des informations, en établissant une intrication quantique instantanée entre des nœuds de communication non physiquement reliés (Voir Nature). Une autre percée notable vient d’être annoncée par l’Université de Bristol, qui a développé un nouveau type de capteurs photoniques quantiques, utilisant des résonateurs en anneaux, dont la sensibilité est cent fois plus grande que les meilleurs capteurs du marché (Voir University of Bristol). L’utilisation de cette technologie pour détecter les changements d’absorption ou d’indice de réfraction peut être utilisée pour identifier et caractériser une large gamme de matériaux et de substrats biologiques, ce qui ouvre la voie vers d’innombrables applications, allant de la surveillance des gaz à effet de serre à la détection du cancer. Des chercheurs de l’Université anglaise de Lancaster viennent, pour leur part, de réaliser un exploit en réussissant à coupler, pour la première fois, deux cristaux temporels (Voir Nature Communications). Découverts en 2016, les cristaux temporels sont des objets physiques tout à fait fascinants. Ils sont organisés en structure composée d’un ensemble de particules ordonnées selon un motif répété, comme un cristal classique, mais qui évoluent et retournent sans cesse à leur état d’origine de façon périodique, sans avoir besoin d’un apport extérieur d’énergie. La différence majeure avec les cristaux ordinaires, dont la structure se répète uniquement dans l’espace, est que celle des cristaux temp orels se répète également dans le temps. Ces recherches ont montré que ces deux cristaux temporels pouvaient former un seul objet quantique macroscopique, en théorie capable d’effectuer des calculs à température ambiante, ce qui ouvre une toute nouvelle voie de recherche vers un ordinateur quantique qui serait capable de fonctionner dans des conditions physiques ordinaires. Des chercheurs français du CNRS de Grenoble ont pour leur part réussi pour la première fois au début de l’année, en refroidissent un tambour d’aluminium de 15 µm de diamètre, à placer un objet macroscopique complet dans un état de mouvement quantique fondamental. On aurait tort de penser que cette nouvelle révolution quantique se limite aux domaines de la physique, de l’électronique et de l’informatique, car de récentes recherches montrent que, contre toute attente, les étranges lois qui régissent la physique quantique semblent également jouer un rôle fondamental dans l’organisation et le fonctionnement du vivant. Des chercheurs de l’Université anglaise du Surrey viennent ainsi de montrer que certains effets quantiques seraient à l’origine des mutations spontanées de l’ADN (Voir University of Surrey) Dans la constitution de l’extraordinaire architecture de l’ADN, Il suffit que la nature des liaisons hydrogène entre les paires de bases se modifie très légèrement p our qu’un défaut d’appariement se produise, ce qui peut alors entraîner une mutation spontanée de l’ADN. En utilisant un puissant outil de modélisation informatique, ces chercheurs ont pu montrer, pour la première fois, l’implication de la mécanique quantique dans la réplication de l’ADN, un phénomène déjà prédit dans les années 50 par les généticiens James Watson et Francis Crick, qui ont découvert la structure de l’ADN en 1953. Cette étude explique que l'effet tunnel qui agit sur les protons permet la disparition spontanée d'un proton à un endroit et la réapparition du même proton à proximité. Or, les atomes d'hydrogène, très légers, ont des liaisons qui assurent la cohésion des deux brins de la double hélice de l'ADN et peuvent, dans certaines conditions, se comporter comme des ondes pouvant exister à plusieurs endroits à la fois. Ce serait justement ce phénomène quantique de dualité qui ferait que ces atomes se retrouvent parfois sur le mauvais brin d'ADN, entraînant des mutations. Commentant ces recherches, le Docteur Marco Sacchi, chef de projet à l'Université de Surrey, souligne que « Beaucoup soupçonnent depuis longtemps que le monde quantique – qui est étrange, contre-intuitif et merveilleux – joue un rôle dans la vie telle que nous la connaissons. Bien que l'idée que quelque chose puisse être présent à deux endroits en même temps puisse être absurde pour beaucoup d'entre nous, cela se produit tout le temps dans le monde quantique, et notre étude confirme que l'effet tunnel quantique se produit également dans l'ADN à température ambiante ». Et ces défauts d’appariement entre les brins d’ADN se produiraient nettement plus souvent que l’on ne le pensait jusqu’ici, selon ces chercheurs. « Les protons de l’ADN peuvent créer un tunnel le long des liaisons hyd rogène de l’ADN et modifier les bases qui codent l’information génétique », indique Louie Slocombe, auteur principal de l’étude. Evoquons enfin une dernière et passionnante étude, réalisée par des chercheurs de l’Université de Jena et de l’Institut d’Astronomie Max Planck, qui montre de manière convaincante que ce fameux "effet tunnel" quantique aurait également pu jouer un rôle-clé dans l’apparition de la vie sur Terre (Voir Nature Astronomy). Notre planète se caractérise par un extraordinaire foisonnement du vivant. Selon de récentes estimations, il pourrait y avoir plus de 100 millions d’espèces différentes sur Terre (sans compter les bactéries) et, à ce jour, à peine deux millions d’entre elles ont été répertoriées. Quant à l’origine de la vie, apparue il y environ quatre milliards d’années, elle reste un grand mystère et fait l’objet de deux hypothèses principales, qui ne sont d’ailleurs pas incompatibles. Selon la première, les précurseurs des molécules biologiques se seraient constitués par synthèse dans l’espace, puis auraient été apportées sur Terre via les météorites et comètes. Cette première hypothèse est connue sous l'appellation de “panspermie”. La seconde hypothèse est celle de la biogénèse, qui postule que les éléments essentiels à la vie ont pu être forgés sur Terre, et émerger autour des sources hydrothermales, dans les conditions physico-chimiques très particulières qui régnaient au début de l'histoire de la planète. Une récente étude de l’Institut Max Planck, publiée en février et dirigée par Serge Krasnokutski a montré que, contre toute attente, des molécules aussi complexes que des peptides et protéines peuvent se former dans des conditions cosmiques extrêmes, à très basse température, sans eau ni irradiation, et sans avoir recours à l’étape énergivore de formation d’acides aminés et d’élimination de l’eau, grâce à l’effet tunnel de la mécanique quantique (Voir Max Planck Institute for Astronomy). Cette découverte est considérable car, jusqu’à, présent, il était admis que les peptides avaient besoin d’eau pour donner naissance à des formes de vie complexes. La glycine par exemple, peut être obtenue à partir d’un précurseur chimique nommé aminocétène, en se liant avec une molécule d’eau. Ensuite, pour qu’il y ait liaison avec l’acide aminé suivant, il faut que la molécule d’eau soit à nouveau retirée. « Nos calculs de chimie quantique nous ont permis de montrer que l’acide aminé glycine peut être formé par un précurseur chimique – appelé aminocétène – se combinant avec une molécule d’eau. En termes simples : dans ce cas, de l’eau doit être ajoutée pour la première étape de réaction, et de l’eau doit être retirée pour la seconde », explique Serge Krasnokutski, qui a dirigé ces travaux à l’Institut d’astronomie Max Planck. Ces chercheurs ont réussi à sauter l’étape nécessitant de l’eau, pour passer directement des aminocétènes à la polyglycine peptidique. Ils ont également simulé la composition globale de nuages moléculaires, en ajoutant notamment du carbone, de l’ammoniac et du monoxyde de carbone. Cette "soupe primitive" a été placée dans une chambre ultravide à environ un quadrillionième de la pression atmosphérique terrestre et à une température de -263°C. Les chercheurs ont alors constaté avec surprise que la glycine parvenait à se polymériser dans ces conditions extrêmes. Mais pour qu’une telle réaction puisse avoir lieu à des températures aussi basses, il fallait comprendre pourquoi les molécules d’aminocétène étaient si réactives et comment des peptides complexes pouvaient se former dans les conditions aussi extrêmes et hostiles que celles du vide cosmique. Selon les lois de la physique, pour que les liaisons se produisent, les atomes d’hydrogène doivent se déplacer. Et c’est là qu’intervient de manière décisive la physique quantique : grâce au fameux "effet tunnel", qui autorise un objet quantique à franchir une barrière de potentiel même si son énergie est inférieure à l'énergie minimale requise pour franchir cette barrière, ces atomes d’hydrogène seraient capables de franchir, dans le vide spatial, une barrière énergétique normalement insurmontable, ce qui permettrait la formation de liaisons stables nécessaires à l’apparition des molécules complexes nécessaires à la vie… Cette seconde révolution quantique en cours est absolument passionnante, et porteuse d’immenses avancées, tant sur le plan théorique, en jetant de nouveaux ponts conceptuels entre thermodynamique, énergie, information et matière, qu’en en matière de recherche appliquée, en ouvrant la voie à de multiples innovations de rupture, dans les domaines de l’énergie, de l’informatique, de la biologie et des matériaux. Mais l’aspect sans doute le plus fascinant de cette révolution quantique réside dans le fait, à présent indéniable, que les étranges lois de la physique quantique sont bien à l’œuvre -jusqu'à quel point ? - dans les processus fondamentaux qui régissent la vie, tant dans son émergence que dans son fonctionnement et son évolution. Cette biologie quantique pourrait bien nous permettre de d&eac ute;voiler, au cours de ce siècle, une réalité et une Nature plus polymorphe, plus profonde et plus surprenante encore que celles que nous croyons connaître… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Dans le cadre d’un projet regroupant des chercheurs de l’Université de l’Illinois et de la division d’intelligence artificielle de Meta, un algorithme a été mis au point dans le but de créer des bétons plus écologiques et plus résistants. Un domaine où l’IA peut s’exprimer, mais où l’on n’attendait pas l’entreprise de Mark Zuckerberg. L’intelligence artificielle, on l’a plutôt mise à contribution dans la création de nouveaux médicaments, ou la recherche d’associations gustatives en cuisine. Mais pour faire du béton, le principe est le même : mélanger des ingrédients. Néanmoins, les quelque 4 milliards de tonnes de béton produites chaque année génèrent 8 % des émissions de CO2 dans le monde. Une solution serait donc de faire un meilleur béton, en améliorant sa recette notamment. Associé au graphène, il devient nettement plus résistant à l’usure. Composé à partir de déchets de centrales à charbon et de fibres synthétiques, il est alors plus écologique, et surtout plus flexible. Tantôt on voudra réduire la part de ciment, tantôt la part de granulats, etc. Le seul point à respecter étant de remplacer une propriété par une autre au moins équivalente, ou le béton n'en sera pas. La problématique étant qu’il existe des centaines et des centaines de combinaisons possibles. Et c’est ici que l’IA entre en jeu. L’Université de l’Illinois et Meta ont créé un algorithme entraîné pour trouver des nouveaux genres de béton. Ils ont utilisé un ensemble de données déjà existant et grossièrement baptisé Concrete Compressive Strength. Il intègre de multiples informations, comme les capacités physiques des bétons (séchage, résistance, etc.), ainsi que plus de 1 000 formules. Les résultats ont ensuite été comparés dans l’outil Environmental Product Declaration de la CSI (Cement Sustainability Initiative) qui détermine l’empreinte carbone d’un matériau. Les 5 meilleures formules créées par l’intelligence artificielle ont encore été retraitées afin d’en tirer celle avec les meilleures caractéristiques. Une fois produit et coulé afin d’être mis en condition réelle, le béton en question permet de réduire d’au moins 40 % les émissions de CO2. Il utilise aussi 50 % de ciment en moins, au profit de cendres volantes et de scories. À l’occasion d’un rapprochement avec l’entreprise Ozinga, Meta souhaite utiliser son béton pour la construction de divers bâtiments dont un centre de données. Un test grandeur nature qui se veut encourageant. Article rédigé par Georges Simmonds pour RT Flash University of Illinois Urbana-Champaign | | | |
| Des chercheurs de l’Université de Caroline-du-Nord ont créé des circuits à base de protéines auto-assemblés qui peuvent exécuter des fonctions logiques simples. Les travaux démontrent qu’il est possible de créer des circuits numériques stables qui tirent parti des propriétés d’un électron à des échelles quantiques. L’une des pierres d’achoppement dans la création de circuits moléculaires est que, à mesure que la taille du circuit diminue, les circuits deviennent peu fiables. En effet, les électrons nécessaires à la création de courant se comportent comme des ondes, et non comme des particules, à l’échelle quantique. Par exemple, sur un circuit avec deux fils distants d’un nanomètre, l’électron peut "tunneliser" entre les deux fils et se trouver effectivement aux deux endroits simultanément, ce qui rend difficile le contrôle du sens du courant. Les circuits moléculaires peuvent atténuer ces problèmes, mais les jonctions à une seule molécule sont de courte durée ou à faible rendement en raison des défis associés à la fabrication d’électrodes à cette échelle. « Notre objectif était d’essayer de créer un circuit moléculaire qui utilise le tunneling à notre avantage, plutôt que de lutter contre lui », explique Ryan Chiechi, professeur agrégé de chimie à la North Carolina State University et co-auteur correspondant d’un article décrivant le travail. Chiechi et l’auteur co-correspondant Xinkai Qiu de l’Université de Cambridge ont construit les circuits en plaçant d’abord deux types différents de cages de fullerène sur des substrats d’or à motifs. Ils ont ensuite immergé la structure dans une solution de photosystème un (PSI), un complexe protéique de chlorophylle couramment utilisé. Les différents fullerènes ont induit les protéines PSI à s’auto-assembler sur la surface dans des orientations spécifiques, créant des diodes et des résistances une fois que les contacts supérieurs de l’eutectique de métal liquide gallium-indium, EGaIn, sont imprimés sur le dessus. Ce processus résout à la fois les inconvénients des jonctions à une seule molécule et préserve la fonction moléculaire-électronique. « Là où nous voulions des résistances, nous avons modelé un type de fullerène sur les électrodes sur lesquelles le PSI s’auto-assemble, et là où nous voulions des diodes, nous avons modelé un autre type », explique Chiechi. « Le PSI orienté redresse le courant, ce qui signifie qu’il ne permet aux électrons de circuler que dans une seule direction. En contrôlant l’orientation nette dans les ensembles de PSI, nous pouvons dicter la façon dont la charge les traverse ». Les chercheurs ont couplé les ensembles de protéines auto-assemblées avec des électrodes fabriquées par l’homme et ont créé des circuits logiques simples qui utilisaient le comportement de tunnel électronique pour moduler le courant. « Ces protéines dispersent la fonction d’onde électronique, médiant l’effet tunnel d’une manière qui n’est pas encore complètement comprise », explique Chiechi. « Le résultat est que malgré une épaisseur de 10 nanomètres, ce circuit fonctionne au niveau quantique, fonctionnant dans un régime tunnel. Et parce que nous utilisons un groupe de molécules, plutôt que des molécules uniques, la structure est stable. Nous pouvons en fait imprimer des électrodes au-dessus de ces circuits et construire des appareils ». Les chercheurs ont créé de simples portes logiques ET/OU à base de diodes à partir de ces circuits et les ont incorporés dans des modulateurs d’impulsions, qui peuvent coder des informations en activant ou désactivant un signal d’entrée en fonction de la tension d’une autre entrée. Les circuits logiques basés sur le PSI ont pu commuter un signal d’entrée de 3,3 kHz – qui, bien qu’il ne soit pas comparable en vitesse aux circuits logiques modernes, est toujours l’un des circuits logiques moléculaires les plus rapides jamais signalés. « Il s’agit d’un circuit logique rudimentaire de preuve de concept qui repose à la fois sur des diodes et des résistances », explique Chiechi. « Nous avons montré ici que vous pouvez construire des circuits intégrés robustes qui fonctionnent à haute fréquence avec des protéines. En termes d’utilité immédiate, ces circuits à base de protéines pourraient conduire au développement de dispositifs électroniques qui améliorent, supplantent et/ou étendent la fonctionnalité des semi-conducteurs classiques ». Article rédigé par Georges Simmonds pour RT Flash NCSU | | ^ Haut | |
|
| | | Des chercheurs de l’Université d’Oxford ont mis au point un capteur en fibre de saphir capable de tolérer des températures extrêmes. Ce capteur pourrait permettre d’améliorer considérablement l’efficacité et la réduction des émissions dans l’aérospatiale et la production d’énergie. Les travaux, publiés dans la revue Optics Express, utilisent une fibre optique en saphir – un fil de saphir fabriqué industriellement de moins d’un demi-millimètre d’épaisseur – qui peut résister à des températures supérieures à 2000°C. Lorsque la lumière est injectée à l’une des extrémités de la fibre de saphir, une partie est renvoyée par un point de la fibre qui a été modifié pour être sensible à la température (appelé réseau de Bragg). La longueur d’onde (couleur) de cette lumière réfléchie est une mesure de la température à ce point. Cette recherche résout un problème vieux de 20 ans avec les capteurs existants : si la fibre de saphir semble très fine, elle est énorme par rapport à la longueur d’onde de la lumière. Cela signifie que la lumière peut emprunter de nombreux chemins différents le long de la fibre de saphir, ce qui entraîne la réflexion simultanée de nombreuses longueurs d’onde différentes. Les chercheurs ont surmonté ce problème en écrivant un canal sur toute la longueur de la fibre, de sorte que la lumière soit contenue dans une minuscule section transversale, d’un centième de millimètre de diamètre. Grâce à cette approche, ils ont pu fabriquer un capteur reflétant principalement une seule longueur d’onde de la lumière. La démonstration initiale a porté sur une petite longueur de fibre de saphir de 1 cm, mais les chercheurs prévoient qu’il sera possible d’atteindre des longueurs de plusieurs mètres, avec un certain nombre de capteurs distincts sur cette longueur. Cela permettrait de mesurer la température tout au long d’un moteur à réaction, par exemple. L’utilisation de ces données pour adapter les conditions du moteur en vol pourrait permettre de réduire considérablement les émissions d’oxyde d’azote et d’améliorer l’efficacité globale, réduisant ainsi l’impact environnemental. La résistance du saphir aux rayonnements offre également des applications dans les secteurs de l’espace et de l’énergie de fusion. Le Docteur Mohan Wang, membre de l’équipe de recherche du département des sciences de l’ingénieur de l’Université d’Oxford, a précisé : « Les capteurs sont fabriqués à l’aide d’un laser de haute puissance avec des impulsions extrêmement courtes et un obstacle important a été d’empêcher le saphir de se fissurer au cours de ce processus ». Ces travaux s’inscrivent dans le cadre d’une bourse EPSRC de 1,2 million de livres sterling accordée au Docteur Julian Fells du département des sciences de l’ingénieur de l’Université d’Oxford et ont été réalisés en partenariat avec Rolls-Royce, l’Autorité britannique de l’énergie atomique (Remote Applications in Challenging Environments – RACE), l’Université de Cranfield, Halliburton et MDA Space and Robotics. Mark Jefferies, chef de la liaison avec la recherche universitaire chez Rolls-Royce plc, a déclaré : « C’est une nouvelle passionnante et une autre réalisation scientifique importante résultant de notre partenariat de longue date avec l’Université d’Oxford. Cette recherche fondamentale pourrait à terme permettre une mesure de la température multipoint plus efficace et plus précise dans des environnements difficiles, améliorant ainsi le contrôle, l’efficacité et la sécurité. Nous sommes impatients de collaborer avec l’Université d’Oxford pour explorer son potentiel ». Rob Skilton, chef de la recherche à RACE, Autorité britannique de l’énergie atomique, a ajouté : « Ces fibres optiques en saphir auront de nombreuses applications potentielles différentes dans les environnements extrêmes d’une centrale à énergie de fusion. Cette technologie a le potentiel d’augmenter de manière significative les capacités des futurs systèmes de capteurs et de maintenance robotique dans ce secteur, aidant ainsi l’UKAEA dans sa mission de fournir au réseau une énergie de fusion sûre, durable et à faible teneur en carbone« ». Article rédigé par Georges Simmonds pour RT Flash University of Oxford | | | |
| Une équipe internationale de recherche, comprenant des chercheurs du CEA, avec la Carnegie Institution de Stanford (États-Unis), vient de décrypter les mécanismes par lesquels les microalgues capturent le CO2 atmosphérique de manière extrêmement efficace. Les équipes de recherche dévoilent notamment des réseaux de production et de distribution de l’énergie photosynthétique au sein de la cellule algale, impliqués dans la concentration du CO2, précédant sa fixation métabolique. Cette découverte qui permet de comprendre les bases fondamentales de la capture efficace du CO2, s’inscrit dans la recherche du développement d’une nouvelle forme d’énergie produite par les microalgues. En milieu aquatique, où le CO2 ne diffuse que très lentement, les algues ont développé un mécanisme leur permettant d’accroître la concentration intracellulaire en CO2 au niveau d’une enzyme appelée Rubisco. Une fois concentré, le CO2 peut être "fixé" efficacement par la Rubisco, à travers des réactions biochimiques qui transforment le carbone "minéral" du CO2 atmosphérique en carbone "organique", sous forme de "sucres". Alors que la source d’énergie de la fixation du CO2 était bien connue, à savoir les photons du soleil captés par photosynthèse, il restait à élucider les processus fournissant l’énergie nécessaire au mécanisme de concentration du CO2, appelé aussi CCM (CO2 concentrating mechanism). Or l’accumulation proprement dite du CO2 ne peut se produire que si le CO2 est sous sa forme ionique (et hydratée), le bicarbonate. Il est ensuite reconverti en CO2 par la Rubisco. Ce sont les processus de production de l’énergie photosynthétique nécessaire à cette conversion qu’ont identifiés les chercheurs du Biam (CEA, CNRS, AMU), en utilisant comme modèle d’étude l'algue verte Chlamydomonas. Deux mécanismes de transfert d’électrons se combinent pour produire un gradient de protons qui participe à la conversion du bicarbonate en CO2 au niveau de la Rubisco. Cette voie fournit suffisamment d’énergie au CCM sans compromettre la fixation photosynthétique du CO2, elle aussi consommatrice d’énergie. Ces recherches dévoilent un réseau complexe de distribution d’énergie jouant un rôle essentiel pour alimenter les autres composants du CCM, dont les transporteurs de bicarbonate. Cette découverte permet de comprendre les bases fondamentales de la capture efficace du CO2 par les algues et ouvre la voie au transfert d'un CCM fonctionnel chez les plantes cultivées afin d'améliorer leur productivité. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Les cellules solaires en silicium sont largement répandues, mais leur rendement de conversion reste limité. Celui-ci devrait ainsi culminer à environ 27 % dans un avenir proche, à cause des restrictions thermodynamiques inhérentes au procédé. Les panneaux équipés de ce type de cellules solaires atteindront donc un rendement de l’ordre de 23 à 25 % au maximum. Ces restrictions peuvent toutefois être surmontées en associant le silicium à une deuxième cellule solaire qui absorbe les radiations bleues et vertes du spectre solaire pour l’exploiter de manière plus efficace. Ces deux cellules forment ainsi un "tandem". Parmi les différents matériaux utilisables pour ce tandem, les pérovskites à base d’halogénure se sont récemment avérées être la meilleure alternative possible afin de booster l’efficacité du silicium sans générer de frais de fabrication supplémentaires trop importants. L’un des obstacles consistait à trouver une manière de revêtir de manière homogène la surface en silicium, laissée intentionnellement rugueuse ou texturée, d’une fine couche de pérovskite à base d’halogénure. On utilise en effet une surface texturée pour réduire au minimum la réflexion de la lumière. Ce type de système se rencontre déjà dans toutes les cellules en silicium cristallin disponibles dans le commerce. Les scientifiques du Laboratoire de photovoltaïque et couches minces électroniques (PV-lab) de l’EPFL, sous la direction de Christophe Ballif, ont développé une méthode pour répartir les couches de pérovskite de manière uniforme sur le silicium texturé en 2018. Les dispositifs élaborés pour démontrer la faisabilité du concept réussissent à atteindre une efficacité de 25,2 %. Les chercheuses et chercheurs ont désormais amélioré le processus de cristallisation de la pérovskite et développé des couches ultra transparentes avec à la clé des cellules solaires tandem d’une efficacité de 29,2 % sur une surface de 1 cm2. Ce rendement a été certifié par l’institut indépendant Fraunhofer Institute for Solar Energy Systems (Fraunhofer ISE) en Allemagne, ce qui représent e un nouveau record mondial pour un dispositif silicium-pérovskite entièrement texturé. Il ne s’agit toutefois que de la première étape. L’équipe de chercheuses et chercheurs a déjà identifié une nouvelle manière d’atteindre des rendements au-delà de 30 % en tirant parti du fort courant électrique fourni par la texture en silicium. « Il faudra encore plusieurs années de recherche et développement pour commercialiser cette technologie et les procédés de fabrication correspondants », explique Christophe Ballif. « L’un des grands défis consistera à développer des cellules solaires pouvant rester sur les toits sans s’altérer pendant plus de 25 ans. Mais le fait d’atteindre une efficacité supérieure sans modifier la texture du silicium sera très intéressante pour l’industrie du photovoltaïque ». Cette découverte offre des perspectives prometteuses afi n de réduire le coût de production électrique au kWh, en produisant plus d’énergie sur la même surface. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Une étude réalisée par des chercheurs Tchèques et Américains montre que plusieurs milliers de kilomètres cubes d’eau se seraient évaporés il y a des millions d’années et pourraient finalement se retrouver sous la surface de la Lune. Découverte par la sonde Voyager 1, la magnétosphère englobe l’ensemble des lignes de force du champ magnétique terrestre. Retrouvée au-delà de l’ionosphère à plus de 800 kilomètres au-dessus de la surface de la Terre, cette structure n’est pas sphérique. Elle est en effet aplatie du côté tourné vers le Soleil et prolongée dans l’ombre de la planète, en forme de larme (magnétoqueue). Nous savons que la Lune traverse cette magnétoqueue cinq fois par mois. Dans le cadre de nouveaux travaux, des chercheurs de l’Université d’Alaska Fairbanks ont modélisé comment les ions oxygène et hydrogène s’échappent de la haute atmosphère terrestre et interagissent avec la magnétosphère lorsque la Lune passe à travers. Des observations précédentes de sonde en orbite autour de la Terre avaient en effet déjà détecté la présence d’ions formant de l’eau dans cette région lors de ces passages. Ces analyses confirment aujourd’hui que ces croisements répétés brisent plusieurs lignes magnétiques, ce qui déclenche une pluie d’ions d’eau dans l’espace. Selon les chercheurs, bon nombre de ces ions frappent la Lune de passage et se retrouvent piégés dans le pergélisol lunaire. Les impacts d’astéroïdes pourraient alors entraîner cette eau encore plus profondément sous la surface où elle pourrait former des dépôts liquides. Toujours d’après l’étude, qui s’appuie sur des modélisations informatiques, cette eau terrestre peut couvrir jusqu’à 3 500 kilomètres cubes près des régions polaires de la Lune. À titre de comparaison, cela représente autant que le volume du lac Huron, le huitième plus grand lac du monde situé en Amérique du Nord. Ces emplacements uniques pourraient ainsi potentiellement être exploités dans le cadre du programme Artemis qui prévoit de s’installer durablement au pôle sud de la Lune. Les chercheurs pensent qu’environ 1 % de l’eau qui s’évapore de l’atmosphère terrestre pourrait ainsi se déposer sur la Lune grâce à ce processus. Cependant, cette eau supposée terrestre ne représenterait qu’une petite fraction de toute l’eau lunaire. On pense en effet que la majorité de cette matière provient d’astéroïdes et de comètes ayant frappé notre satellite au cours du Grand bombardement tardif essuyé il y a environ 3,5 milliards d’années. Les scientifiques émettent également l’hypothèse que de l’eau pourrait arriver sur la Lune avec le vent solaire, le flux de plasma s’écoulant de la surface du Soleil qui est connu pour contenir des ions oxygène et hydrogène. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Le cancer colorectal est l’un des cancers les plus fréquents, avec plus de 20 000 cas annuels à la fois chez la femme et l’homme en France. Si des facteurs génétiques existent et expliquent certains cancers colorectaux, les principaux facteurs de risque sont liés au mode de vie, particulièrement la nutrition (consommation de viande rouge et de charcuteries, d’alcool, surpoids) et le tabagisme. Le tabac favorise principalement l’apparition du cancer du poumon, mais il accroît aussi significativement le risque de cancer d’autres organes, comme le pancréas, le rein, le côlon et le rectum. Les mécanismes par lesquels la fumée de cigarette favorise le développement du cancer colorectal sont méconnus. Dans une étude publiée dans Gut, une équipe de chercheurs a tenté de préciser l’impact éventuel de la fumée de cigarette sur le microbiote intestinal - c’est-à-dire l’ensemble des bactéries présentes dans l’intestin - et son implication dans le développement du cancer colorectal. En effet, des travaux ont déjà montré que le sevrage tabagique favorisait la diversité bactérienne. De plus, une altération du microbiote est largement documentée chez les patients atteints de cancer colorectal. Pour leur démonstration, ils ont exposé pendant plusieurs semaines à la fumée de cigarette des souris "modèles" pour le développement des cancers colorectaux. La fumée provoquait une augmentation du nombre de tumeurs, mais aussi leur agressivité. Elle induisait également une modification des bactéries retrouvées dans les selles des souris. Certaines bactéries, comme Eggerthella lenta, sont associées au cancer colorectal chez les patients, et étaient plus fréquentes chez les souris exposées à la fumée. D’autres, plutôt protectrices, étaient au contraire significativement réduites après l’exposition à la fumée. Les chercheurs ont également étudié la fonction de barrière de la paroi intestinale. Chez les souris "fumeuses", cette fonction était considérablement perturbée. La barrière intestinale protège les cellules épithéliales, l’augmentation de la perméabilité favorise donc l’accès des molécules toxiques aux cellules du côlon, l’inflammation, et donc l’initiation de la carcinogenèse. Enfin, pour prouver le rôle direct de l’altération du microbiote par la fumée de cigarette, ils ont utilisé des souris stériles chez lesquelles ils ont réalisé une transplantation du microbiote des souris exposées à la fumée. A lui seul, ce microbiote induisait une inflammation et une prolifération des cellules épithéliales du côlon, ainsi qu’une pertur bation de l’intégrité de la barrière intestinale. Ces travaux confirment que le tabagisme provoque des altérations de la composition du microbiote intestinal, entraînant un défaut de la barrière intestinale, ainsi que l'activation des voies de signalisation oncogènes. Le sevrage tabagique contribue donc notamment à restaurer un microbiote sain, et réduit ainsi le risque de cancer. Ces résultats ouvrent également la voie à de nouvelles stratégies thérapeutiques prometteuses, avec la manipulation du microbiote intestinal pour lutter contre le cancer chez les fumeurs. Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| Une passionnante étude dirigée par Christine Iacobuzio-Donahue, pathologiste au Memorial Sloan Kettering Cancer Center à New York, a comparé des centaines de gènes humains à ceux de douze autres espèces de primates. L’objectif : « Identifier les variations de séquence dans les gènes connus comme étant liés au cancer et comprendre pourquoi une minuscule modification dans notre ADN survenue après notre séparation d’avec les autres primates nous a rendus plus vulnérables au cancer », précise l’étude. Les chercheurs ont ainsi repéré plusieurs centaines de variations génétiques qui ont émergé au cours de l’évolution humaine. L’une d’entre elles a attiré leur attention. Elle serait survenue après la divergence avec le dernier ancêtre commun au chimpanzé et à l’humain, et elle porte sur BRCA2. Ce gène, impliqué dans la réparation de l’ADN, est connu comme étant un suppresseur de tumeur. L’étude souligne que la modification d’une seule lettre dans le gène humain BRCA2 l’a rendu 20 % moins performant pour réparer l’ADN comparé aux versions de ce gène présentes chez les autres primates, ce qui pourrait expliquer la plus grande fréquence des cancers chez l’être humain. Cette découverte vient appuyer les connaissances que nous avons déjà sur ce gène particulier, dont certaines mutations chez les humaines sont connues pour accentuer le risque de cancer des seins et des ovaires. On ignore cependant pourquoi il a évolué pour devenir moins actif. « Il est possible que l’activité réduite du gène BRCA2 ait été favorisée chez l’humain pour améliorer la fertilité car la recherche montre que les femmes présentant des variants du BRCA2 associés à un risque accru de cancer semblent aussi tomber enceintes plus facilement » analyse la chercheuse qui a dirigé les travaux. A l’avenir, les chercheurs pensent qu’il sera possible, en utilisant le puissant d’édition génomique CRISPR/Cas9, de corriger les mutations spécifiques de ce gène BRCA2 em>responsables de l’apparition de certains cancers (Voir sur ce sujet BMC). Article rédigé par Georges Simmonds pour RT Flash New Scientist | | | |
| Une étude conduite par le Docteur Miquel Lledós et ses collègues de l’Hôpital de Sant Pau, en Espagne, a montré que le microbiome intestinal peut être un facteur important du risque d’accident vasculaire ischémique. Selon ces travaux, certains groupes de bactéries du microbiote intestinal sont associés à des accidents vasculaires cérébraux plus graves et à une moins bonne récupération post-AVC. Ces recherches ont été présentées à la conférence de l'European Stroke Organisation qui s’est tenue à Lyon. Un AVC survient lorsque le flux sanguin vers une partie ou une autre de votre cerveau est interrompu par l’obstruction d’une artère souvent en raison d’un caillot sanguin et/ou d’un dépôt graisseux causé par l’athérosclérose, ce qui endommage les cellules cérébrales en les privant d’oxygène. Les conséquences de l’AVC dépendent de la partie du cerveau qui a subi des dommages et de leur étendue. L'influence du microbiome intestinal est un facteur de risque modifiable associé au risque d'accident vasculaire cérébral et aux résultats neurologiques post-AVC. Cependant, la plupart des recherches ont été menées jusqu'à présent sur des modèles animaux, affirme le Docteur Lledós dans un communiqué. Dans son étude, l'équipe espagnole a prélevé des échantillons de matières fécales après un AVC chez 89 humains qui avaient subi un accident vasculaire cérébral ischémique. « En les comparant à un groupe témoin, nous avons pu identifier plusieurs groupes de bactéries qui étaient associés à un risque plus élevé d'accident ischémique cérébral. Cette découverte ouvre la perspective passionnante qu’à l’avenir, nous puis sions prévenir les accidents vasculaires cérébraux ou améliorer la récupération neurologique en examinant le microbiote intestinal », précise l’étude. Une vingtaine de types de bactéries ont été associés au risque d'AVC ischémique, notamment Fusobacterium et Lactobacillus. Les bactéries Negativibacillus et Lentisphaeria ont été liées à un AVC plus grave en phase aiguë, et Acidaminococcus a été associée à de mauvais résultats fonctionnels à trois mois. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Une étude menée par des chercheurs de l’Université de Cambridge, au Royaume-Uni, a montré que six mois après avoir contracté le Covid-19, le déclin cognitif, pour certains patients hospitalisés, était similaire à 20 ans de vieillissement et correspondait à une perte de 10 points de QI. D’après eux, certains patients pourraient ne jamais retrouver leurs capacités. Pour arriver à ce constat, les chercheurs ont testé les capacités cognitives de 46 patients âgés d’en moyenne 51 ans. Tous ont été hospitalisés à la suite du coronavirus en 2020. Un tiers avait été placé sous respirateur. Ils ont subi une série de tests de mémoire, d'attention et de raisonnement six mois après leur maladie. Les chercheurs ont comparé leurs résultats à ceux de 66 008 personnes en bonne santé. Globalement, les patients du Covid étaient en moyenne moins précis et avaient des temps de réponse plus lents que le groupe témoin. Les survivants du Covid-19 ont obtenu des résultats particulièrement médiocres dans les tâches dans lesquelles ils devaient trouver des mots appropriés pour un problème appelé "analogies verbales". Les auteurs ont comparé ces difficultés au "brouillard cérébral" signalé par les personnes touchées par le Covid. Les résultats ont également montré que les patients qui avaient été placés sous respirateur ont obtenu les pires résultats aux tests, indiquant que la gravité de la maladie est un facteur déterminant du déclin cognitif. Alors que les patients avaient montré une amélioration cognitive "progressive" 10 mois après leur maladie, « il est très possible que certaines de ces personnes ne se rétablissent jamais complètement », souligne le professeur David Menon, un auteur de l'étude. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| L’Organisation Mondiale de la Santé - OMS - considère, dans son dernier rapport, que l'obésité en Europe est désormais "épidémique". « Les taux de surcharge pondérale et d'obésité ont atteint des proportions épidémiques dans toute la région et continuent de progresser », déplore, dans un communiqué, la branche européenne de l'organisation. Sur le Vieux continent, près d'un quart des adultes sont désormais obèses, rendant la prévalence de l'obésité plus élevée que dans toute autre région, à l'exception des Amériques. Aucun pays de la région ne peut actuellement prétendre stopper la progression, et l'ampleur du problème s'est révélée avec force lors de la pandémie de Covid-19 où le surpoids était considéré comme une comorbidité. « L'augmentation de l'indice de masse corporelle est un facteur de risque majeur de maladies non transmissibles, notamment les cancers et les maladies cardiovasculaires », souligne le directeur de l'OMS Europe, Hans Kluge, cité dans le rapport. Le surpoids et l'obésité seraient ainsi à l'origine de plus de 1,2 million de décès par an, représentant plus de 13 % des morts dans la région, selon l'étude. L'obésité est cause d'au moins 13 types de cancers différents et susceptibles d'être directement responsables d'au moins 200.000 nouveaux dépistages par an. « Ce chiffre devrait encore augmenter dans les années à venir », prévient l'OMS. Les dernières données complètes disponibles, qui remontent à 2016, montrent que 59 % des adultes et près d'un enfant sur trois (29 % des garçons et 27 % des filles) étaient alors en surpoids à l'échelle de l'Europe. En 1975, à peine 40 % des adultes européens étaient en surpoids. La prévalence de l'obésité chez les adultes s'est envolée de 138 % depuis cette date, avec une progression de 21 % entre 2006 et 2016. D'après l'OMS, la pandémie de Covid-19 a permis de prendre la mesure de l'impact de l'épidémie de surpoids dans la région. Les restrictions (fermeture des écoles, confinement) ont parallèlement « entraîné une augmentation de l'exposition à certains facteurs de risque qui influencent la probabilité qu'une personne souffre d'obésité ou de surpoids », souligne Hans Kluge. La pandémie est à l'origine de changements néfastes dans les habitudes alimentaires et sportives dont les effets, durables, doivent être inversés, plaide l'OMS. « Les interventions politiques qui ciblent les déterminants environnementaux et commerciaux d'une mauvaise alimentation sont susceptibles d'être les plus efficaces pour inverser l'épidémie », estime-t-elle. Il convient également, selon elle, de taxer les boissons sucrées, subventionner les aliments bons pour la santé, limiter la commercialisation d'aliments malsains auprès des enfants et plébisciter les efforts pour encourager l'activité physique tout au long de la vie. Article rédigé par Georges Simmonds pour RT Flash OMS | | | |
| Le diabète de type 2, qui touche le quart des personnes âgées de 65 ans et plus, est caractérisé par une résistance à l’insuline et une dérégulation du taux de glucose dans le sang. D’après une précédente hypothèse, la résistance à l’insuline dans le cerveau pourrait jouer un rôle dans le déclin cognitif et fonctionnel lié à l’âge, ainsi que dans l’apparition de la maladie d’Alzheimer. L’administration d’insuline intranasale offre de nouvelles perspectives pour prévenir le déclin cognitif lié au vieillissement. De cette manière, elle pénètre directement dans le cerveau par les voies olfactives et se lie à des récepteurs dans plusieurs régions corticales. Elle ne remplacerait pas l’insulinothérapie chez les diabétiques, mais agirait plutôt en modulant la signalisation de l’insuline dans le cerveau. Il a déjà été démontré que ce mode d’administration améliore la mémoire verbale et se présente comme un traitement potentiel des troubles cognitifs chez les personnes âgées. Par ailleurs, la marche est une tâche complexe dont la vitesse est un indicateur important de l’état de santé général. « La vitesse de marche est un prédicteur clinique important du bien-être chez les personnes âgées, qui est en corrélation avec le déclin cognitif, les hospitalisations, l’invalidité et le décès », a déclaré l’auteur correspondant Vera Novak, professeur associé de neurologie à la Harvard Medical School. Dans le cadre de la nouvelle étude, l’équipe de chercheurs du Beth Israel Deaconess Medical Center à Boston s’est penchée sur les effets à long terme de l’insuline intranasale sur la cognition et la marche chez des personnes atteintes ou non de diabète de type 2. L’essai clinique en phase 2 (contrôlé randomisé en double aveugle) consistait en un traitement journalier d’insuline pendant 24 semaines, ou d’un placebo (solution saline stérile). Âgés de 50 à 85 ans, les 223 participants (dont environ la moitié étaient atteints de diabète de type 2) ont été répartis en quatre groupes : un groupe diabétique recevant de l’insuline intranasale, un groupe diabétique recevant un placebo, un groupe sain recevant de l’insuline intranasale et un groupe sain recevant un placebo. Les résultats montrent que les diabétiques qui prenaient de l’insuline intranasale ont amélioré leur vitesse de marche et ont obtenu de meilleurs résultats aux tests cognitifs que les diabétiques du groupe placebo. Pour les non diabétiques, l’administration de l’insuline intranasale a surtout permis d’améliorer les prises de décision et la mémoire verbale, par rapport aux non-diabétiques du groupe placebo. Au sein de ce groupe, des améliorations plus importantes ont été constatées pour les personnes dans un état prédiabétique au moment du début de l’essai. Article rédigé par Georges Simmonds pour RT Flash BIDMC | | | |
| Les liens entre le réseau social et la taille du cerveau ont fait l’objet de précédentes études dans le domaine des neurosciences. Des scientifiques se sont par exemple déjà intéressés à la variation de la taille de l’amygdale du cerveau humain, en fonction du nombre d’amis Facebook que possède un individu. Pour compléter ces recherches et essayer de mieux comprendre l’organisation et les fonctions des réseaux neuronaux chez l’Homme, des équipes ont travaillé avec une espèce animale aux caractéristiques cérébrales proches de celles de l’humain, à savoir les macaques rhésus. Dans une nouvelle étude, des chercheurs et chercheuses de l’Inserm et de l’Université Claude Bernard Lyon 1 au sein de l’Institut cellule souche et cerveau, en collaboration avec l’Université de Pennsylvanie, ont étudié un groupe de ces primates non-humains dans leur état naturel et pendant plusieurs mois avant d’imager leur cerveau. Le fait d’étudier les animaux en liberté leur a permis d’appréhender le groupe social dans toute sa complexité. Les scientifiques ont ainsi pu mesurer l’intensité des interac tions avec les autres individus ou encore d’identifier la position hiérarchique sociale de l’animal au sein du groupe. En parallèle de ce travail d’observation comportementale, les scientifiques ont analysé les scanners cérébraux des individus du groupe, qui était composé de 103 macaques rhésus dont 68 adultes et 21 jeunes macaques âgés de moins de 6 ans. Ils ont découvert que, chez l’adulte, plus l’animal avait un nombre important de compagnons, plus certaines régions de son cerveau situées dans le lobe temporal étaient de taille importante. Il s’agit de l’insula antérieur et de la partie médiane du Sillon temporal Supérieur – des régions considérées primordiales pour se représenter les émotions et la perception des comportements d’autrui. Pour mieux comprendre comment ce phénomène se met en place, les scientifiques ont également pu recueillir les scanners cérébraux de 21 jeunes macaques nouveau-nés. Les travaux ont montré qu’ils ne sont pas nés avec ces différences de taille des structures cérébrale mais qu’elles se mettent en place au cours de leur développement. D’après les observations des chercheurs, il n’y aurait donc à la naissance aucune corrélation entre la taille du réseau social et le volume du cerveau. Ces résultats suggèrent que l’exposition à l’environnement social au cours de la vie participe à la maturation des réseaux cérébraux. « Cet aspect est intéressant, car si nous avions observé la même corrélation chez les jeunes macaques, cela aurait pu signifier que naître d’une mère très populaire (ayant beaucoup d’interactions avec le groupe), aurait pu prédisposer le nouveau-né à devenir à son tour populaire. Au contraire, nos données suggèrent que les différences que nous observons chez l’adulte seraient fortement déterminées par nos environnements sociaux, peut-être plus que par not re prédisposition innée », explique Jérôme Sallet, directeur de recherche à l’Inserm. Article rédigé par Georges Simmonds pour RT Flash INSERM | | | |
| Deux nouvelles études confirment les effets protecteurs des légumes contre certains cancers associés à une forte consommation de viande rouge. Selon les chercheurs, une consommation importante de légumes – en particulier de laitue, de légumineuses et de variétés crucifères (choux, navet, colza, cresson...) – semble réduire le risque de cancer du foie/maladie du foie. Une équipe distincte suggère qu'une consommation élevée de viande rouge, d'abats et de viandes transformées augmente le risque de cancer gastrique. Les résultats de cette dernière étude « renforcent l'idée qu’éviter la viande rouge et la viande transformée est probablement bon au-delà de la prévention du cancer colorectal », a indiqué l'auteur principal et épidémiologiste, le Docteur Paolo Boffetta (Stony Brook University Cancer Center, New York), lors d’un entretien. « Le possible effet cancérigène peut s'étendre au-delà du côlon ». Les deux études ont été présentées lors du congrès annuel de l'Association américaine pour la recherche sur le cancer (AACR). Dans l'étude sur la viande rouge, les chercheurs ont examiné les statistiques de l'étude de cohorte du Golestan, qui suit de manière prospective 50 045 personnes âgées de 40 à 75 ans du nord-est de l'Iran. L'étude se concentre sur le cancer de l'œsophage en raison du taux élevé de la maladie dans la région. La consommation de viande rouge est assez rare dans la région, où les habitants préfèrent généralement le poulet, a déclaré l'auteure principale de l'étude, la Docteure Giulia Collatuzzo (médecin du travail à l'Université de Bologne, Italie) dans un entretien. En moyenne, les participants ont déclaré manger 18,4 grammes de viande rouge par jour et 72,1 grammes de viande blanche par jour. Les chercheurs ont suivi les participants pendant une médiane de 12 ans, au cours desquels 369 ont développé un cancer de l'œsophage et 368 ont développé un cancer de l'estomac. La viande rouge n'était liée à un plus grand nombre de cancers de l'œsophage que chez les femmes. La consommation globale de viande rouge (y compris la viande rouge, les abats et la viande transformée) était liée à des taux plus élevés de cancer gastrique pour chaque quartile d'augmentation de la consommation, mais aussi pour la consommation de viande rouge seule. Selon la Docteure Collatuzzo, les résultats suggèrent que les personnes dans le quartile le plus élevé pour la consommation globale de viande rouge pourraient avoir une augmentation du risque de cancer d'environ 25 %, par rapport au quartile le plus bas. Dans l'ensemble, dit-elle, les résultats de l'étude ne sont pas surprenants. Pour l'étude sur le cancer du foie et les maladies du foie, les chercheurs ont examiné les dossiers médicaux de 470 653 personnes dans le cadre de l'étude sur l'alimentation et la santé du NIH-AARP. Elles ont été enrôlées en 1995-1996 alors qu'elles étaient âgées de 50 à 71 ans. Au cours d'un suivi médian de 15,5 ans, 899 ont développé un cancer du foie et 934 sont décédées d'une maladie chronique du foie. Les apports médians de légumes dans le quintile 5 (le plus élevé) et le quintile 1 (le plus bas) étaient de 800 gr tasse par jour et de 225 gr tasse par jour, respectivement, a déclaré l'auteur principal de l'étude Long-Gang Zhao, étudiant diplômé à l'Université de Harvard. Après ajustement pour les différents biais possibles, les personnes apparte nant au quintile le plus élevé de consommation de légumes étaient un tiers moins susceptibles de développer un cancer du foie, par rapport au quintile le plus bas. Plusieurs types de légumes semblaient être plus protecteurs contre le cancer : les crucifères (brocoli, chou-fleur), la laitue, les légumineuses et les carottes. Ces types spécifiques de légumes étaient aussi associés à des taux plus faibles de mortalité par maladie hépatique chronique. Article rédigé par Georges Simmonds pour RT Flash IJC NIH | | | |
| Selon une étude de l’Université de Cambridge, la durée idéale d’une bonne nuit de sommeil pour les personnes, à l'approche de la quarantaine et après, serait de sept heures. Les analyses des chercheurs ont démontré que les personnes qui dormaient sept heures par nuit obtenaient les meilleurs résultats aux tests cognitifs - mettant à l'épreuve la vitesse de traitement d'une information, d’attention visuelle, de mémoire et de résolution de problèmes. Arguant que la durée de sommeil est étroitement liée aux troubles psychiatriques et à la démence, l’étude précise que « les durées de sommeil insuffisantes et excessives » sont « significativement associées à un déclin de la cognition ». Pour mener à bien leur étude, les chercheur.euse.s de l’Université de Cambridge ont utilisé des données issues de la UK Biobank – « une base de données biomédicales à grande échelle et une ressource de recherche, contenant des informations génétiques et sanitaires approfondies d'un demi-million de participants britanniques ». Au total, 500 000 adultes âgés d'entre 38 et 73 ans (94 % de personnes blanches) ont participé à l’expérience. Pour 40 000 participant.es, ces données comprenaient également leur imagerie cérébrale et génétique. Résultat,les personnes dont le temps de sommeil était inférieur ou supérieur à sept heures, ont vu leurs performances cognitives décliner, favorisant une exposition à l’anxiété et la dépression. Au contraire, une nuit de sept heures semblait être bénéfique pour leur cerveau. « Il est très clair que les processus qui se déroulent dans notre cerveau pendant le sommeil sont très importants, pour maintenir notre santé physique et mentale », a déclaré Barbara Sahakian, professeur au département de psychiatrie de l’Université de Cambridge. Un phénomène qui s’expliquerait par le fait que la zone cérébrale la plus affectée par le sommeil soit la région contenant l'hippocampe, centre de contrôle de la mémoire dans le cerveau. Précisons que si des symptômes d'anxiété et de dépression ont été détectés chez certains sujets, cette étude n'établit pas de lien entre sommeil et troubles cérébraux. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|