| | Edito Réchauffement climatique : peut-on aller contre l’Histoire ?
Même si elle était attendue, l’annonce par le Président Trump du retrait des États-Unis des accords de Paris conclus fin 2015 a provoqué une vague de consternation, d’indignation et de colère qui a déferlé sur toute la planète. Rappelons que cet accord, qui vient d’être dénoncé par le président américain, a été signé le 12 décembre 2015 au terme de 20 ans de négociations par 197 états et ratifiées par 147 d’entre eux. Il vise à tout mettre en œuvre pour limiter à 1,5° l'élévation moyenne de la température du globe par rapport à son niveau préindustriel. Bien que cet accord ne comprenne pas d’objectifs contraignants et ne prévoit pas de sanctions, il est fondamental car il traduit pour la première fois une volonté forte de la communauté internationale d’atteindre un objectif très ambitieux mais incontournable : parvenir à ramener l’ensemble des émissions de gaz à effet de serre à un niveau proche de zéro au cours de la seconde moitié de ce siècle. Il s 8217;agit, selon les termes mêmes de cet accord, de « parvenir à un équilibre entre les émissions anthropiques et les capacités naturelles d’absorption des sols, des forêts et des océans de notre planète ». Dans le cadre de cet accord, véritablement adopté le 4 novembre 2016 et qui doit commencer à être appliqué en 2020, les États-Unis, deuxième émetteur de gaz à effet de serre après la Chine (15 % des émissions mondiales de CO2), s’étaient engagés à réduire d’au moins 26 % leurs émissions de gaz à effet de serre d’ici 2025, par rapport à 2005. Il est vrai qu’aujourd’hui, grâce notamment aux remarquables travaux du Giec, la réalité, l’ampleur et la rapidité du réchauffement climatique en cours n'acceptent plus le doute et sont devenus des phénomènes admis par la quasi-totalité de la communauté scientifique internationale. Et même si certains scientifiques débattent encore de la part exacte de la responsabilité humaine dans ce réchauffement climatique mondial, la très grande majorité des scientifiques qui travaillent à cette question ainsi que la plupart des responsables politiques de la planète s’accordent sur le lien de cause à effet très robuste entre l’explosion des émissions humaines de gaz à effet de serre - qui ont été multipliées par 10 en moins d’un siècle et atteignent à présent 50 milliards d e tonnes d’équivalent CO2 par an - et le rythme inquiétant d’accélération du réchauffement climatique et de l’élévation général du niveau des mers observé depuis le début de ce siècle. Le dernier rapport du Giec montre de manière incontestable que la température moyenne du globe a augmenté de 0,85 degrés centigrades entre 1880 et 2012. Les travaux du Giec montrent également que, depuis 1950, c’est bien l’explosion des émissions humaines de gaz à effet de serre - qui ont atteint leur plus haut niveau depuis 800 000 ans - qui est devenue le principal responsable de l’accélération de ce réchauffement climatique mondial. À cet égard, il est également démontré que ces trois dernières décennies représentent la période la plus chaude sur terre enregistrée depuis plus de 1400 ans. Il faut également souligner que plusieurs études convergentes ont montré que les fluctuations de l’activité solaire, si elles ont effectivement joué un rôle important dans les variations clim atiques observées dans le passé, ne peuvent plus expliquer à présent plus de 10 % du réchauffement climatique. Une étude publiée début 2016 par Robert Kopp, professeur adjoint au département des sciences de la Terre de l'Université Rutgers (USA), a montré de manière très fiable que le niveau général des mers était monté de 14 cm au cours du siècle dernier, c’est-à-dire plus qu’au cours des 3000 dernières années… Cette étude a également montré que, sans réduction drastique de notre consommation d’énergie fossile, ce niveau des mers risquerait de monter de 50 cm à 1,30 m d’ici la fin de ce siècle… 2016, faut-il le rappeler, a été l’année la plus chaude jamais enregistrée depuis les premiers relevés de températures en 1880. Les conséquences de cette accélération du réchauffement climatique ne se sont pas fait attendre : la superficie de la banquise estivale du pôle Nord s’est réduite à 4,14 millions de kilomètres carrés, un niveau historiquement bas. L’Antarctique, pour sa part, a perdu 2 millions de kilomètres carrés par rapport à la moyenne d’évolution de sa superficie de 1985. Quant à la concentration atmosphérique de CO2, elle a dépassé pour la première fois la barre symbolique des 400 ppm (parties par million) soit une hausse de 40 % depuis la fin du XVIIIe siècle… Les affirmations du président américain et de son administration, selon lesquelles « le réchauffement climatique est un canular inventé par les Chinois » et les accords de Paris vont « pénaliser l’Amérique pour créer des emplois », ne résistent pas à une analyse sérieuse : le secteur des énergies renouvelables représente à présent au niveau mondial près de 10 millions d’emplois, en hausse de 40 % sur les cinq dernières années. Il est vrai que la barre symbolique des 2000 GW de puissance renouvelable a été franchie en 2016 et que depuis 2015, le monde ajoute chaque année davantage de capacité renouvelable qu’il n’ajoute de capacité dans les différentes ressources fossiles. Autre indicateur révélateur : au cours de ces cinq dernières années, la puissance éolienne mondiale installée a été multipliée par deux (487 gigawatts en 2016) et la puissance solaire installée par quatre (303 gigawatts en 2016). Aux États-Unis, les emplois liées à l’installation des systèmes solaires photovoltaïques ne cessent d’augmenter et atteignent à présent 245 000 salariés. Quant au secteur global des énergies renouvelables, il emploie à présent près de 800 000 personnes aux USA, contre seulement 160 000 pour l’ensemble de l’industrie du charbon… Fait révélateur : la Chine qui a bien compris toute l’importance de cet enjeu énergétique et climatique s’est engagée à réduire d’au moins 60 % d’ici 2030 son intensité carbone par unité de PIB et à monter à 20 % la part des énergies renouvelables dans son bouquet énergétique à la même échéance. La consommation de charbon du géant chinois a d’ailleurs continué à baisser cette année pour la quatrième année consécutive et les émissions de CO2 de la Chine pourraient commencer à décroître dès 2018. Pendant ce temps, l’administration Trump, avant de sortir des accords de Paris, avait déjà aboli le « Clean Power Act » prévoyant une réduction de 32 % des émissions de gaz à effet de serre des centrales à charbon américaines d’ici 2030. De l’avis de la plupart des économistes mais également d’une très grande majorité des patrons américains, cette mesure est non seulement désastreuse sur le plan écologique mais elle est également incompréhensible sur le plan industriel et économique car elle n’est pas susceptible de créer des emplois supplémentaires aux États-Unis et risque même de dégrader sérieusement la compétitivité américaine sur le marché mondial en plein essor des technologies propres. A contre-courant de ce repli américain, les deux nouveaux géants économiques mondiaux, l’Inde et la Chine, s’engagent plus que jamais dans la transition énergétique et vers l’économie à basse intensité carbone. A l’occasion d’un sommet qui s’est tenu le 2 juin dernier à Bruxelles, la Chine et l’Union européenne ont réaffirmé leur volonté commune d’accélérer la diminution des émissions de gaz à effet de serre, de réduire l’utilisation des énergies fossiles et de développer les énergies renouvelables. Pour la Chine, il ne s’agit pas seulement de réduire les atteintes à son environnement et la pollution atmosphérique très forte observée dans les grandes mégapoles chinoises, mais également de créer massivement de nouveaux empl ois : 3,5 millions de Chinois travaillent déjà dans secteur des énergies propres et le gouvernement chinois fera tout pour créer 13 millions d’emplois nouveaux dans ce domaine d’activité économique d’ici 2020. Les autorités chinoises ont confirmé par ailleurs leur intention d’investir 344 milliards d’euros d’ici 2020 pour accélérer la décarbonisation de leur production d’énergie et faire en sorte que plus de la moitié de la gigantesque production d’électricité en Chine soit issue d’énergies propres au cours de la prochaine décennie. En outre, en développant des compétences technologiques industrielles de pointe dans ce secteur stratégique des énergies vertes, la Chine, comme toujours, vise le long terme et compte bien prendre toute sa part dans le gigantesque gâteau économique que représente la mutation énergétique planétaire en cours. L’autre géant asiatique, l’Inde, n’est pas en reste et s’est également engagé dans une réduction massive du recours aux énergies fossiles et dans le développement des énergies renouvelables, notamment solaire, qui devrait représenter 175 GW de puissance installée d’ici 2022. De passage à Paris le 3 juin dernier, le premier ministre de l’Inde, Narendo Modi, a d’ailleurs réaffirmé que son pays irait au-delà des objectifs fixés par les accords de Paris et produirait au moins 40 % de son électricité à partir de sources d’énergies propres d’ici 2030. Pour atteindre cet objectif ambitieux, l’Inde, qui dispose d’un potentiel solaire exploitable immense, veut multiplier par 25 sa production d’électricité solaire d’ici 2025… De manière inattendue, ce retrait des États-Unis des accords de Paris suscite également une forte réprobation de la part du secteur pétrolier, gazier et charbonnier américain. Celui-ci est en effet tout à fait conscient que la sortie des accords de Paris est très mauvaise pour les affaires et les perspectives de reconversion énergétique. Il y a deux mois, le Conseil économique des entreprises pour les énergies renouvelables des États-Unis a d’ailleurs demandé officiellement au gouvernement américain de ne pas sortir de ces accords de Paris. Plus récemment, les principales entreprises américaines ont signé le manifeste « pour une économie américaine à faible empreinte carbone », en soulignant le fait que les accords de Paris allaient générer au moins 15 000 milliards d’euros d’investissements d’ici 2030, ce qui représente une formidable opportunité de business que les États-Unis doivent évidemment saisir ! C’est d’ailleurs pour les mêmes raisons d’opportunité économique et de développement de nouveaux marchés que même le géant du pétrole Exxon Mobil vient de voter à 62 % de ses actionnaires, le 31 mai dernier, une résolution reconnaissant la nécessité d’inscrire sa stratégie de développement industriel dans la perspective de la limitation à 2° du réchauffement climatique préconisée par la communauté scientifique internationale. Il est intéressant de souligner que ce pourcentage de 62 % est le même que la proportion d’Américains qui souhaitent que leur pays reste dans les Accords de Paris… De manière très positive, cette décision de sortie des accords de Paris annoncée par le Président Trump n’a également fait que renforcer la détermination de la vingtaine d’États américains ayant déjà adopté des programmes de réduction locale de gaz à effet de serre, à accroître encore leurs efforts de lutte contre le réchauffement climatique. En pointe dans ce combat, on trouve notamment les puissants états de Californie et de New York qui visent une baisse de 40 % de leurs émissions de gaz à effet de serre d’ici 2030 (par rapport à son niveau de 1990). Mais les grandes mégapoles américaines ne sont pas non plus en reste dans cette lutte contre le changement climatique : Atlanta vise par exemple une réduction de 20 % de ses émissions de CO2 d’ici 2020, Washington de 50 % d’ici 2032 et Boston de 80 % d’ici 2050. Toutes ces initiatives locales, publiques et privées, se sont solennellement fédérées le 1er juin, dans une « Alliance pour le climat » qui regroupe, outre les états américains les plus peuplés, plus de 200 métropoles et une multitude d'entreprises, dont Amazon, Apple et Google. Le 5 juin dernier, cette Alliance a adressé une lettre ouverte aux Nations Unies, intitulée « Nous sommes toujours dans les Accords de Paris », dans laquelle elle réaffirme sa volonté et ses engagements en faveur d’une baisse drastique des émissions de CO2 d’ici 2030. Comme une large partie des milieux d’affaires et la majorité des grandes entreprise américaines, déjà engagées dans la transition énergétique, l’ensemble de ces états et mégapoles – qui représentent plus du tiers de la population américaine et plus de la moitié des émissions américaines de gaz à effet de serre – a pris clairement le contrepied de la politique climatique et environnementale annoncée par le Président Trump et mise en œuvre au niveau fédéral. La portée réelle et finale de cette décision attendue du Président américain doit donc être relativisée. Il n'en reste pas moins vrai que cette sortie des accords de Paris va évidemment rendre plus compliquée et plus difficile l’atteinte des nouveaux objectifs internationaux en matière de r&eacu te;duction globale des émissions de gaz à effet de serre et de lutte contre le réchauffement climatique. Unanimement condamnée sur le plan international mais également très fortement contestée sur le plan intérieur par l’Opinion publique américaine, les entreprises et les états les plus puissants du pays, la décision du Président Trump de sortir des accords de Paris risque donc de placer les Etats-Unis dans une position d’isolement politique et diplomatique et de combat d’arrière-garde, intenable à terme. En outre, en refusant de voir la réalité du réchauffement climatique en face et d’anticiper la transition énergétique mondiale inévitable, les Etats-Unis ne se mettent pas dans la situation la plus favorable pour devenir les leaders technologiques et industriels sur le fabuleux marché mondial que va représenter d’ici 2050 la mutation énergétique et les « green techs ». Enfin, plus qu’une dramatique erreur d’appréciation politique, économique et technologique, cette décision du Président Trump est une faute morale majeure car elle revient pour les Etats-Unis à nier leur responsabilité et leur rôle de grande nation dans cet enjeu décisif que représentent pour notre génération et les suivantes la maîtrise du changement climatique planétaire en cours et la transition énergétique qui en découle. De la même manière qu’un dirigeant éclairé ne peut pas durablement gouverner contre son Opinion publique, il ne peut pas non plus aller contre le sens de l’Histoire, surtout lorsqu’il s’agit de l’intérêt supérieur de la planète et de l’avenir de toute l’Humanité. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Nanotechnologies et Robotique | |
| | | Malgré l’évolution des intelligences artificielles ces dernières années, la question de leur consommation massive d’énergie est restée un vrai barrage à leur développement. Mais une équipe de l’Université de Stanford aidée du Sandia National Laboratories a trouvé un moyen de résoudre ce problème. Notre cerveau fonctionne de façon très performante et peut accomplir des tâches complexes en ne demandant qu’une toute petite quantité d’énergie, environ équivalente à l’énergie nécessaire pour allumer une led. Pour les mêmes tâches, les intelligences artificielles consomment 50 000 fois plus d'énergie. Cela s’explique par le fait que les « cerveaux » des intelligences artificielles sont compartimentés avec d’un côté la mémoire, et de l’autre le processeur qui gère l’information, l’étudie et agit en fonction de ses calculs. Dans le cerveau humain, l'ensemble de ces fonctions est intégré grâce à ce que l’on appelle les synapses. Ces connexions entre chaque neurone de notre cerveau permettent d’optimiser les échanges entre mémoire et traitement. De plus, même si nos connaissances sur le sujet restent limitées, il semblerait que cet échange soit d’origine chimique. C’est ici qu’entre en jeu l’invention révolutionnaire des chercheurs de Stanford et de Sandia. Ces derniers ont réussi à créer une sorte de synapse artificielle nommée « electrochemical neuromorphic organic device (ENODe) ». Cette invention pourrait alors être intégrée à des puces électroniques, ce qui réduirait de façon conséquente leur consommation d’énergie. Réalisée à partir de matériau organique, elle permettrait même de connecter un cerveau à un ordinateur, ouvrant la possibilité de créer de vrais cyborgs. L’idée de copier le fonctionnement du cerveau humain est ici capitale et assure un tournant majeur dans l’histoire des technologies. En plus des performances, cette invention montre qu’il est possible de reproduire sommairement le fonctionnement chimique de la nature. Ces synapses communiquent en effet entre elles grâce à des impulsions électriques qui déversent un composant chimique permettant de réguler la quantité d’énergie nécessaire, mais aussi de conserver l’information. Ainsi, la synapse artificielle (ENODe) existe sous deux états. Ouverte, elle permet de communiquer des informations. Lorsque ce réseau est fermé, la fonction « écriture » est activée. Le prototype actuel nécessite environ 0,5 millivolts, ce qui correspond à un dixième des puces équivalentes utilisées actuellement mais reste néanmoins bien plus gourmand que notre cerveau. L’auteur de l’étude Alec Talin explique que « cette invention ouvre la voie à l’interface de cellules vivantes qui pourraient fonctionner via des synapses artificielles. Nous pensons que cela pourrait avoir de grandes implications sur le futur afin de créer des machines connectées à un cerveau humain. » Article rédigé par Georges Simmonds pour RT Flash DG | | ^ Haut | |
|
| | | A l'aide de réseaux métallo-organiques ou MOF (Metal-Organic Frameworks) fabriqués à Berkeley par l'Université de Californie, les chercheurs du MIT (Massachusetts Institute of Technology) ont réussi à construire un extracteur qui piège l'eau dans l'atmosphère et à démontrer en conditions réelles qu'il pouvait extraire l'eau de l'air dont l'humidité relative atteint seulement 20 %. Le prototype a pu extraire 2,8 litres d'eau par jour avec une humidité relative de l'air ambiant comprise entre 20 et 30 %. Les MOF sont des réseaux cristallins formés d'ions métalliques reliés par des branches organiques. Selon les matériaux de départ et leur arrangement, les cavités ainsi formées peuvent piéger certaines molécules de manière stable. Les chercheurs ont réussi à piéger les gaz de l'hydrogène au méthane. La densité de stockage est nettement plus élevée que celle obtenue en comprimant fortement ces mêmes gaz et cela étonne. Depuis l'invention des MOF, il y a déjà 20 ans, 20 000 composés métallo-organiques ont été développés. Dans le cas présent, le réseau est composé de zirconium et d'acide adipique. Il est capable de stocker une grande quantité d'eau. Dès sa mise au point, en 2014, les chercheurs ont pensé à l'utiliser pour extraire de l'eau. C'est maintenant chose faite. Dans cet extracteur d'eau, on trouve environ 1 kg de cristaux de MOF prisonniers entre une couche supérieure qui absorbe la lumière et une plaque inférieure de condensation. L'air qui traverse le boîtier se sépare de l'eau qu'il contient en raison des propriétés très fortement hygroscopiques des cristaux MOF. Sur le dessus de l'appareil, une fenêtre transparente laisse passer la lumière qui vient chauffer le matériau MOF par le haut, ce qui propulse les molécules d'eau vers le bas. La plaque inférieure refroidit à la température de l'air environnant par des caloducs et un échangeur extérieur condense l'eau qui est alors collectée. Le principe est aussi simple qu'efficace. S'il est possible de construire un tel dispositif capable de conserver ses propriétés à long terme, ce sera une véritable percée dans l'utilisation de l'énergie solaire sans aucune cellule photovoltaïque. Article rédigé par Georges Simmonds pour RT Flash EM | | | |
| Dans le cadre de la grande conférence 2017 sur le stockage massif de l'énergie qui s'est tenue à Düsseldorf, plusieurs études stratégiques présentées par Dr Christian Breyer, professeur à la Lappeenranta University of Technology (LUT), ont fait le point sur les avancées remarquables dans le domaine de l'utilisation des énergies renouvelables. La première étude s’intitule « Exploiting resource complementarities to reduce energy storage need » (« Exploiter les complémentarités pour réduire les besoins en stockage »). Elle repose sur l’analyse des données solaires et éoliennes d’Israël, d’Arabie Saoudite, de Californie et de Finlande, et montre que se focaliser uniquement sur l’éolien (ou le solaire) n’est pas pertinent car cette approche réductrice conduit à augmenter massivement les besoins en stockage et en back-up. Un mix 50 % solaire + 50 % éolien (VRE = Variable Renewable Energy) est plus performant qu’un mix 100 % éolien (0 % solaire) ou 100 % solaire. En effet, dans l’hypothèse d’une non acceptation de pertes de production (energy loss), le taux de pénétration maximal des VRE est de 58 % avec l’approche symbiotique 50/50, mais seulement de 38 % dans le cas du 100 % éolien, et enfin de 52 % dans le cas du 100 % solaire. Les résultats sont similaires dans les différents pays étudiés. Les chercheurs de la LUT concluent : « Nous avons trouvé que la complémentarité solaro-éolienne conduit à une pénétration des VRE significativement plus élevée, ceci tout en réduisant les besoins en stockage et en balancing » . Accepter de perdre une partie de la production solaro-éolienne permet de réduire massivement les besoins en stockage. Avec un mix solaro-éolien 50/50 (optimal), le taux de pénétration du solaro-éolien dans le mix global monte de 58 % à 81 % dans le cas d’une acceptation d’un taux de pertes de 15 %. Parallèlement, les besoins en stockage s’effondrent de 38 % et les besoins en back-up de 34 %. Accepter de perdre 15 % de la production solaro-éolienne a donc des conséquences très positives sur l’ensemble de l’écosystème énergétique. En France, la complémentarité de l’éolien et du solaire est remarquable à l’échelle saisonnière. La seconde étude s’intitule : « How much energy storage is needed to incorporate very large intermittent renewables ? » (« Quelle quantité de stockage est-elle nécessaire pour intégrer de très hauts niveaux d’énergies renouvelables intermittentes ? »). Quand on accepte de perdre une partie de la production solaro-éolienne, alors les besoins en puissance de back-up diminuent fortement. Dans l’exemple californien choisi par les auteurs de l’étude, avec une non-acceptation des pertes la puissance de back-up requise est de 55 GW. Elle tombe à 45 GW dans le cas d’une acceptation d’un taux de perte de 5 %, et à 40 GW pour 10 %. Accepter de perdre une partie de la production solaro-éolienne conduit à une baisse appréciable des besoins en stockage et en back-up. Pour construire les batteries et les générateurs d’appoint, il faut consommer de l’énergie. Dans une perspective d’efficience, il convient donc de trouver le meilleur compromis. Si, pour ne pas perdre un seul kWh de production solaro-éolien on est contraint de mettre en place d’importantes capacités de stockage et de back-up, alors le résultat final sera une perte d’énergie bien plus importante que les kWh que l’on voulait absolument sauver. Les systèmes de stockage ont d’ailleurs eux-mêmes des pertes intrinsèques et pour certaines technologies ces pertes peuvent être massives. C’est le cas du Power-t o-Methane. « Une capacité de stockage correspondant à environ une journée de demande moyenne est suffisante pour parvenir à un taux de pénétration solaro-éolien de 90 %, ceci si l’on accepte un taux de perte de 20 % » affirment les chercheurs. Ce taux de perte consiste en la somme de la production non consommée et des pertes liées au rendement du stockage. 90%, c’est déjà très bien, mais comment faire pour parvenir aux 100 % d’énergies renouvelables ? Plutôt que d’augmenter le taux de perte et/ou la capacité de stockage dans l’espoir de parvenir au 100 % solaro-éolien, les scientifiques estiment qu’il vaut mieux faire appel à d’autres sources d’énergie pour les 10 % résiduels : « Dans un système 100 % renouvelable, le back-up peut provenir d’un mix diversifié de générateurs : hydroélectricité, biomasse, générateurs conventionnels fonctionnant avec du gaz de synthèse, et les ressources marines, si elles sont co-optimisées ». Il semble donc particulièrement important de ne pas gaspiller le biogaz dans des applications où il n’est pas indispensable, pour le réserver à cette fonction de back-up. Et ainsi réduire autant que possible les besoins en électro-méthane complémentaire dont la production est peu efficiente. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| Afin d'améliorer ls performances des cellules solaires à bas coût de fabrication, une des approches les plus prometteuses pour le silicium cristallin consiste à déplacer tous les contacts électriques sur la face arrière de la cellule. Ainsi, la partie de la cellule exposée au soleil est libérée de tout ombrage et le courant augmente. Cette approche nécessite en général de nombreuses étapes délicates de fabrication, puisqu’il s’agit de définir à l’arrière des cellules des zones fines où les contacts négatifs (-) et positifs (+) vont collecter les électrons (charges négatives) et les trous (charges positives). La réalisation des zones alternées positives (+) et négatives (-) nécessite en général de nombreuses étapes de photolithographie ou de masquage. Les équipes du PV-lab de l’EPFL et du CSEM PV-center ont réussi à mettre au point un procédé astucieux où les contacts positif et négatif s’auto-alignent. Cela est rendu possible en déposant d’abord par procédé plasma des contacts négatifs (-) à travers un masque qui définit la géométrie. Ensuite une deuxième couche (+) est déposée sur toute la surface. La croissance de cette couche est telle que le contact négatif, même recouvert de la couche positive, est maintenu, Le reste devient positif. Grâce à ce procédé simple, les chercheurs ont déjà réussi à atteindre un rendement de 23,2 % sur des cellules de 25 cm2.. A terme, l’efficacité pourrait dépasser les 26 %. L’EPFL et le CSEM travaillent avec le groupe industriel Meyer Burger, un des principaux fabricants d’équipements de ligne de production, à la mise au point de procédés industriels de productions pour ce type de dispositif, valorisant les technologies de silicium dites à hétérojonction à la base de ces travaux. Article rédigé par George Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | "Dans le traitement du cancer du poumon, l’importance et la durée de la réponse au crizotinib étaient jusqu'à présent impossibles à prévoir et l’apparition d’une résistance est très variable selon les patients, de quelques mois à plusieurs années. Identifier un biomarqueur est un fort enjeu pour eux car d’autres traitements ciblant la résistance au crizotinib ont été développés" explique Françoise Farace, directrice de la plate-forme cellules circulantes rares à Gustave Roussy. Disponible depuis 2011, le crizotinib est le traitement standard pour les patients atteints d’un cancer du poumon non à petites cellules porteurs du réarrangement de gène ALK. Ces patients sont généralement jeunes et non-fumeurs. Les 39 patients inclus dans cette étude ont tous eu une prise de sang avant de débuter le crizotinib. Une deuxième prise de sang a été réalisée deux mois après chez 29 patients (les échantillons de sang de 10 patients suivis dans d’autres centres n’ont pas pu être analysés). Dans les deux prélèvements de sang, les chercheurs ont isolé les CTC dans lesquelles ils ont analysé le réarrangement de gène ALK ainsi que la présence d’un nombre anormal de copies de ce gène. Les patients chez lesquels le nombre de CTC présentant une anomalie du nombre de copies du gène ALK diminue au cours des deux premiers mois de traitement ont une survie sans progression significativement plus longue. La médiane de survie sans progression de la maladie était de 14 mois pour ces 13 patients et de 6 mois pour les 16 patients chez lesquels le nombre de ces cellules augmente ou est stable. "Ces résultats doivent être confirmés par d’autres études pour pouvoir être exploités en routine clinique. Dans ce cas, deux prélèvements sanguins suffiront à prédire l’efficacité du crizotinib chez ces patients alors que ni les biopsies tumorales qui sont invasives et pas toujours réalisables, en particulier sous traitement, ni l’ADN circulant, ni la seule analyse des CTC avant traitement ne le permettent" conclut Françoise Farace. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Selon une étude réalisée par une équipe internationale dirigée par Marie Trussart et Luis Serrano (Laboratoire de Génomique de l'Institut de Sciences et de Technologie de Barcelone), l'ADN de tous les organismes vivants aurait une base structurelle commune. Ces travaux montrent que même dans de petits organismes, les gènes sont organisés en groupes qui s'activent et se désactivent de manière coordonnée. La microscopie, observation d'un échantillon placé dans une préparation microscopique plane de faible épaisseur, permet de rendre visible des éléments... à super-résolution et à une technique nommée Hi-C. Les scientifiques ont réussi à produire une "carte" 3D qui présente la façon dont l'ADN du mycoplasma est organisé ou conditionné. Leurs résultats montrent que les gènes sont regroupés en différents "domaines" même dans les organismes les plus infimes, et qu'ils ont tendance à agir ensemble. "Nous avions émis l'hypothèse que le génome du Mycoplasma pourrait avoir une organisation générale similaire à d'autres bactéries, mais nous avons été très surpris de voir qu'il était aussi organisé en domaines", affirmait Marie Trussart, auteur principal de l'étude. "Cette recherche montre que l'organisation et le contrôle des gènes ne peuvent pas être compris rien qu'en examinant la séquence linéaire de l'ADN dans le génome." Ces travaux ont révélé que Mycoplasma est organisé en 44 domaines chromosomiques en interaction dans des régions similaires à celles trouvées dans des cellules plus complexes. Ces découvertes, associées aux résultats des études précédentes sur des bactéries de plus grande taille, montrent que l'organisation chromosomique dans les cellules n'est pas le fruit du hasard. Les chromosomes sont organisés de façon fonctionnelle et dynamique. La seule différence est qu'ils sont conditionnés dans le noyau dans la case des eucaryotes, et dans la cellule dans le cas des bactéries. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Une vaste analyse sur plus de 100 000 personnes suivies pendant une trentaine d’années confirme l’effet protecteur de la consommation de faibles doses d’aspirine à long terme. Globalement, consommer entre 0,5 comprimé (162,5 mg) et 7 comprimés (2.275 mg) d’aspirine standard (325 mg) par semaine pendant au moins 6 ans a été associé à une baisse de la mortalité totale de 7 % chez les femmes et de 11 % chez les hommes. Or, cette baisse serait principalement liée au moindre risque de mortalité par cancer : - 7 % chez les femmes et - 15 % chez les hommes. « Cette réduction de la mortalité par cancer peut sembler modeste mais elle est comparable au sur-risque de décès par cancer lié à l’obésité », a expliqué le Docteur Yin Cao (Massachusetts General Hospital et Harvard Medical School, Boston, Etats-Unis). Bien que plusieurs travaux aient déjà montré une association entre l’aspirine et une baisse du risque de mortalité, notamment par cancer, il s’agit de la première fois que les bénéfices de l’aspirine sur la mortalité globale et sur la mortalité par cancer sont évalués dans deux grandes cohortes prospectives sur le long terme. Parmi les cancers, la réduction du risque de mortalité était plus prononcée pour les cancers colorectaux : - 31 % pour les femmes et - 30 % pour les hommes mais elle était également importante pour les cancers du sein, de la prostate et du poumon. La consommation d’aspirine a été évaluée à l’entrée dans les études et tous les deux ans avec un suivi de plus de 90 %. Au cours du suivi, 22 094 femmes et 14 749 hommes sont décédés, dont 8 271 femmes et 4 591 hommes d’un cancer. Les bénéfices associés à l’aspirine sont apparus dès la consommation de 0,5 à 1,5 comprimé de 325 mg par semaine, soit l’équivalent d’une aspirine par jour à faible dose par semaine pendant au moins 6 ans chez les hommes comme chez les femmes. Article rédigé par Georges Simmonds pour RT Flash Medical Daily | | | |
| Des chercheurs de la RMIT University (Melbourne) avec l’aide de l’Université Monash ont mis au point une pilule intelligente qui s'avale et peut diagnostiquer les troubles intestinaux. Testée avec succès, cette pilule pourrait révolutionner la prévention et le diagnostic des troubles et des maladies inflammatoires chroniques de l’intestin (MICI). Une personne sur 5 souffrira d’un trouble gastro-intestinal au cours de sa vie et 30 % des patients atteints de MICI ne seront jamais diagnostiqués. La pilule, à supposer qu’elle soit autorisée comme dispositif de hometest, pourrait donc représenter une première étape de diagnostic, accessible au plus grand nombre. Car aujourd’hui, l’une des seules méthodes pour diagnostiquer les troubles intestinaux, tels qu’une mauvaise absorption des hydrates de carbone, le syndrome du côlon irritable ou encore la maladie inflammatoire de l’intestin, consiste à mesurer les concentrations d’hydrogène dans la respiration. La capsule intelligente, de la taille d’une pilule vitaminique, se déplace et mesure les niveaux de gaz dans le tractus gastro-intestinal. Elle apparaît des milliers de fois plus sensible aux gaz de l’intestin que les techniques alternatives. C’est, selon ses développeurs, également un outil de diagnostic fiable de cancer du côlon, ce qui signifie probablement moins de coloscopies à l’avenir. Enfin, les essais montrent également l’absence de "danger" et de risque de rétention de la capsule. Les résultats sont ainsi facilement accessibles par ses utilisateurs et les médecins peuvent consulter en ligne les données de leurs patients. Pour l'instant, les capteurs permettent de mesurer tous les fluides et les gaz dans l’intestin. Mais ce n’est qu’un début et, dans un futur proche, la pilule intelligente devrait pouvoir détecter les taux de bactéries et de métabolites et apporter ainsi une image multidimensionnelle du microbiome humain. Article rédigé par Georges Simmonds pour RT Flash ACS | | | |
| Des chercheurs américains ont découvert comment le tabagisme agit sur une variante génétique protectrice des artères et accroît ainsi le risque de maladie cardiovasculaire. Cette découverte pourrait à terme permettre de mettre au point de nouveaux traitements. Les scientifiques ont en effet découvert que le tabagisme affaiblissait un gène protecteur des artères et présent dans l'ADN d'un grand nombre de personnes. Baptisé ADAMTS7, il réduit le niveau d'une enzyme impliquée dans l'athérosclérose, responsable des maladies coronariennes. Or, le fait de fumer annihile cette protection, affirment les scientifiques, qui ont analysé les données génétiques portant sur plus de 140 000 personnes provenant de 29 précédentes études. « Notre découverte suggère que des traitements pour neutraliser cette enzyme pourraient être particulièrement bénéfiques pour les fumeurs et également pour toutes les personnes avec un risque accru de maladies cardiovasculaires », estime le Docteur Muredach Reilly, professeur de cardiologie à la faculté de médecine de l'Université Columbia à New York, un des principaux auteurs de l'étude. Cette hypothèse a été vérifiée lors de tests menés sur des souris, dans une étude séparée, et dont les conclusions laissent à penser que le risque cardiovasculaire pourrait être minimisé en bloquant la production de la fameuse enzyme. Les chercheurs ont également soumis, en laboratoire, des cellules formant la paroi des artères à un extrait liquide de fumée de cigarette. Bilan : en réaction, ces cellules ont plus que doublé la production d'ADAMTS7. Article rédigé par Georges Simmonds pour RT Flash Circulation | | | |
| Des chercheurs britanniques de l’Imperial College de Londres ont montré qu'il est possible de déterminer l'âge cérébral d'un patient, potentiellement différent de son âge civil, ce qui pourrait fournir des informations sur l’état de santé présent et à venir du cerveau, et même dans certains cas alerter sur un risque de mort prématurée. C’est l’écart entre les deux âges qui permettrait de tirer ces conclusions capitales. Les spécialistes affirment avoir mis au point une méthode de calcul de l’âge du cerveau qui, basée sur la neuro-imagerie, analyse le volume de tissu cérébral. Celui-ci est étudié grâce à des ordinateurs appliquant des algorithmes spécifiques et mis en parallèle avec des clichés d’examens par imagerie par résonance magnétique (IRM). Une fois l’âge cérébral évalué, il faut le comparer à l’âge chronologique du patient, ce que les scientifiques ont fait avec un groupe de personnes âgées écossaises. Or, les résultats obtenus montrent que plus la différence entre cet âge et l’âge réel est importante, plus les risques de mauvaise santé mentale et physique, voire de décès, sont élevés. Face à ce constat, les chercheurs estiment que leur dispositif pourrait à terme devenir un outil de dépistage pour identifier un éventuel déclin cognitif ou un risque de mourir avant d’avoir atteint 80 ans. « Quelqu’un pourrait aller chez son médecin, avoir une analyse du cerveau et le médecin pourrait dire "votre cerveau est 10 ans plus vieux qu’il ne le devrait", et conseiller de changer d’alimentation, de mode de vie ou de commencer un traitement », s’enthousiasme le docteur James Cole, principal auteur de l’étude. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| 17 opérations à crâne ouvert ont eu lieu en 2014 à l'Institut et l'hôpital neurologiques de Montréal. Mais pour le neurochirurgien Kevin Petrecca, il ne s'agissait pas d'ablations de tumeur comme les autres. Pour la première fois, il disposait en temps réel d'une information lui indiquant, simplement en approchant une sonde, si les tissus qu'il s'apprêtait à éliminer étaient bien cancéreux. Or cette information est précieuse : elle permet aux chirurgiens de s'attaquer à toutes les cellules tumorales, et seulement à elles. Elle met fin au dilemme qu'ils rencontrent à chaque opération. Ils savent en effet qu'ils n'éviteront la rechute à coup sûr que s'ils extraient la totalité des cellules cancéreuses. Mais aussi qu'ils ne doivent pas trop en faire : chaque ablation risque de priver le patient de fonctions vitales, notamment si la tumeur est logée dans le cerveau près de zones motrices ou cognitives critiques. L'outil à l'origine de cette percée médicale est une sonde, qui émet et capte de la lumière, et qui est reliée à un spectromètre. Le dispositif exploite l'effet Raman, un décalage entre les longueurs des ondes reçues par un substrat et celles qu'il réémettra après que le rayonnement aura été réfléchi et diffusé à son contact. "Nous illuminons les tissus avec une source monochromatique, un laser, dont l'énergie est captée par les molécules dont les liaisons se mettent à vibrer", explique Frédéric Leblond, l'un des concepteurs de la sonde, chercheur à Polytechnique à Montréal et au Centre de recherche du Centre hospitalier de l'Université de Montréal. "Ces molécules réémettent ensuite l'énergie reçue, mais à des longueurs d'onde légèrement différentes. Nous utilisons une caméra supersensible pour détecter les longueurs d'onde réémises". Leur dispositif se présente sous la forme d'une sonde de la taille d'un stylo fin. À l'intérieur circulent des fibres optiques. L'une d'elles conduit un laser à 785 nanomètres (dans le proche infrarouge) pour illuminer les tissus à analyser. Les autres conduisent le signal renvoyé jusqu'à un détecteur spectroscopique, lui-même relié à un ordinateur dont l'écran affiche, en temps réel, les spectres récoltés. Mais ce qui intéresse le chirurgien, ce ne sont pas ces spectres, trop compliqués à analyser à l’œil nu. L'information principale lui est donnée par un algorithme. Préalablement confronté à de nombreux spectres de tissus sains et cancéreux, cet algorithme a lui-même défini des critères lui permettant de classer tout nouveau spectre rencontré dans l'une ou l'autre catégorie. Le résultat de ses calculs est affiché, en moins de 0,2 seconde, sous forme d'une couleur (rouge pour un tissu cancéreux, vert pour un tissu sain) et d'un chiffre quantifiant le niveau de confiance associé au résultat. En 2014, l'équipe a testé le système sur 17 patients souffrant d'un gliome, c'est-à-dire d'un cancer du cerveau, à différents stades d'avancement (grade 2 à 4, le maximum). Le chirurgien opérait de manière traditionnelle, prenant la décision d'extraire des tissus sur la base de l'IRM effectuée la veille, et de l'aspect des tissus et des cellules observées au microscope chirurgical. Mais il prit également le temps de balayer les tissus malades avec la sonde Raman, enregistrant un ensemble d'environ 10 points de mesure par patient, au niveau desquels il prélevait un petit échantillon de cellules. Ces prélèvements ont été par la suite analysés afin de déterminer la présence ou non de la maladie. Premier constat : il y a des différences entre les spectres Raman enregistrés au niveau des tissus densément peuplés de cellules cancéreuses, plus légèrement atteints ou sains. Les pics correspondant à des longueurs d'onde de vibration des liaisons des molécules de cholestérol ou de phospholipides sont par exemple un peu moins hauts dans le spectre des tissus cancéreux. En revanche, dans les bandes correspondant aux acides nucléiques composant l'ADN, les pics montent légèrement plus haut que dans les autres spectres.(…) S'ils sont confirmés, les travaux de l'équipe québécoise pourraient marquer une nouvelle ère dans le traitement chirurgical du cancer. Article rédigé par Georges Simmonds pour RT Flash La Recherche | | | |
| Des chercheurs ont découvert un nouveau virus d’amibe baptisé Noumeavirus utilisant un mode de réplication, jamais encore observé, intermédiaire entre celui des virus nucléaires et celui des virus cytoplasmiques. L’identification et la quantification des protéines de deux membres de la famille de ce virus a permis de mettre en évidence que certains composants protéiques, jusqu’alors jugés indispensables pour des virus se répliquant dans le cytoplasme des cellules infectées, étaient absents des particules de Noumeavirus. Plutôt que de transporter leur génome dans le noyau (un processus complexe), ces virus ont évolué pour acquérir la capacité d’attirer dans le cytoplasme les enzymes nucléaires temporairement nécessaires à l’expression de leurs gènes les plus précoces. Les microorganismes eucaryotes se distinguent des procaryotes (les bactéries et les archaebactéries) par la compartimentation stricte de leurs cellules qui sépare le noyau, où se déroule la réplication de l’ADN et sa transcription en ARN messagers, du cytoplasme, où les ribosomes décodent les ARN messagers pour synthétiser les protéines correspondantes. Pour initier leur multiplication, les virus à génome ADN qui infectent une cellule eucaryote (comme une amibe) doivent surmonter ce cloisonnement. Jusqu’à présent, on leur connaissait deux stratégies différentes : soit directement transporter leur génome dans le noyau et y utiliser la machinerie cellulaire (ce sont les virus dits « nucléaires »), soit mettre en œuvre leur propre machinerie de transcription et de réplication au sein du cytoplasme (virus dits « cytoplasmiques »). Dans ce cas, le complexe transcriptionnel codé par le génome viral ne peut initier le cycle infectieux sans être aussi embarqué dans la particule virale sous la forme de protéines prêtes à l’emploi. C’est cette prédiction, jusqu’alors validée pour toutes les familles de virus cytoplasmiques testés (Mimivirus, Vaccinia virus, Pithovirus), que vient de contredire cette étude. Alors que Noumeavirus se réplique dans le cytoplasme et que son génome possède bien les gènes codant pour ses propres ARN polymérases, les chercheurs, en analysant le contenu protéique des particules, ont eu la surprise de ne pas en trouver la moindre trace. Noumeavirus ne peut donc pas initier son cycle infectieux sans l’aide de la machinerie de son hôte, pourtant confinée dans le noyau. Cette anomalie a poussé les scientifiques à reprendre l’étude détaillée du cycle infectieux dans une amibe dont le noyau a été rendu fluorescent. Ils ont alors observé que l’infection par Noumeavirus déclenchait une perméabilisation temporaire du noyau dès les premières minutes, rendant possible le recrutement des enzymes nucléaires nécessaires à la transcription des gènes précoces du virus. Phénomène étonnant observé pour la première fois, le noyau cellulaire reprend son apparence normale après quelques heures, alors que la multiplication des particules virales bat son plein dans le cytoplasme. Cette découverte d’un mécanisme de contrôle à distance du noyau a plusieurs conséquences. Cela démontre le rôle essentiel des analyses protéomiques en complément des analyses génomiques pour comprendre le mode de réplication et l’évolution des virus géants à ADN double-brin. Ensuite, elle ouvre de nouvelles pistes quant au mode d’infection mis en œuvre par d’autres grands virus à ADN dénués d’appareil transcriptionnel (comme les Chlorovirus) mais dont le passage par le noyau n’a jamais été mis en évidence. Enfin, elle conforte le modèle d’évolution réductive des grands virus à ADN en suggérant un mécanisme par lequel des virus initialement cytoplasmiques ont pu s’engager dans la perte progressive de leur autonomie vis-à-vis du noyau, en attendant de faire évoluer leur capacité d’y transporter leur génome. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| A l'occasion de la Réunion Annuelle de la Société de Médecine américaine, des chercheurs de Cleveland ont montré que l'obésité était le principal facteur de risque de mortalité, parmi les comportementaux modifiables, devant le tabac, le diabète, l'’hypertension et le cholestérol. Ces chercheurs de la Clinique Cleveland et de l’École de médecine de l’Université de New York concluent, à l’issue de leur analyse, que l’obésité est bien responsable de près d’une année sur 2 de vie perdue pour des raisons évitables. Les chercheurs ont analysé la contribution de ces facteurs de risque comportementaux modifiables à partir des très larges données des décès 2014 en population générale, aux Etats-Unis. Certes l’analyse prend place sur un terrain où l’incidence de l’obésité atteint près d’un adulte sur 3, cependant ses conclusions constituent une alerte à prendre en compte quel que soit le territoire concerné. Pour estimer ce fameux nombre d’années de vie perdues pour chaque facteur de risque modifiable, les chercheurs ont examiné la variation de la mortalité pour une série de groupes de populations ayant éliminé un seul des facteurs de risque. De la même manière, les auteurs ont estimé l’espérance de vie obtenue chez les individus ayant chaque facteur de risque modifiable. De là, les chercheurs ont pu estimer le gain maximal en années de vie d’un sous-groupe adhérant à un mode de vie optimal, ayant donc éliminé l’ensemble des facteurs de risque modifiables. Ce travail montre que 47 % des années de vie perdues en raison de facteurs de mode de vie seraient directement imputables au surpoids et à l’obésité. Cependant, au-delà de cette première conclusion valable en population générale, les chercheurs précisent que certains profils sont bien différents en termes de niveaux de risque de mortalité prématurée de ceux qui valent en population générale. Par exemple, la santé et le risque de décès prématuré chez un patient obèse et alcoolique pourra être plus fortement lié à sa consommation d’alcool qu’à son surpoids. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Une nouvelle étude européenne vient de confirmer que le café peut avoir un effet protecteur contre le cancer de la prostate. Conduite par le département d'épidémiologie et de prévention de l'IRCCS (hôpital de recherche) Neuromed, en Italie, en collaboration avec l'Institut national de santé italien et l'Istituto dermopatico dell'Immacolata de Rome (un autre IRCCS), l'étude montre qu'au moins trois tasses de café par jour peuvent réduire le risque de cancer de la prostate. De nombreuses études précédentes ont montré non seulement que le café pouvait réduire le risque de cancer de la prostate mais aussi d'autres types de cancer ou d'autres maladies, comme la sclérose en plaques et les maladies du cœur. Cependant, George Pounis, auteur principal de cette étude, souligne que jusqu'à maintenant les preuves des bénéfices du café pour la santé étaient considérées comme insuffisantes pour pouvoir tirer des conclusions définitives ; ainsi son équipe s'est attelée à en savoir davantage et à donner des réponses plus claires dans son étude. Pour cette étude, 6989 hommes de la région de Molise, en Italie, ont été observés pendant quatre ans en moyenne. L'équipe a analysé leur consommation de café et comparé ces données avec les cas de cancer de la prostate diagnostiqués dans ce laps de temps, pour découvrir que les hommes qui buvaient plus de trois tasses de café par jour profitaient d'une diminution de 53 % du risque de développer un cancer de la prostate. Les chercheurs ont également testé en laboratoire des extraits de café et de décaféiné sur des cellules prostatiques cancéreuses. Ils ont pu constater que les extraits de café réduisaient de façon significative la prolifération des cellules cancéreuses et la production de métastases. Un effet qui n'était pas retrouvé avec le décaféiné. Si les études préalables ne permettaient pas de déterminer avec certitude quels composés du café étaient responsables de cet effet protecteur, l'équipe de chercheurs a conclu des résultats de son étude qu'il s'agissait très probablement de la caféine, et non des nombreuses autres substances présentes dans le café. Article rédigé par Georges Simmonds pour RT Flash IJC | | | |
| S'appuyant sur l'analyse de 85 échantillons de sédiments datant du Pléistocène, une période s'étendant de 550.000 ans à 14.000 ans avant notre ère, des chercheurs ont réussi à isoler de l'ADN sans la présence d'ossements ni de fossiles. Situés en Belgique, Croatie, France, Russie, Espagne, ces sites archéologiques déjà connus ont été occupés par des cousins disparus de l'homme moderne, les néandertaliens et les denisoviens et par toutes sortes d'animaux aujourd'hui éteints. "Ces travaux représentent une avancée scientifique importante car ils permettent de dire lesquelles des espèces d'hominidés ont occupé ces grottes et à quelle période, et ce sans même disposer de restes d'ossements ou de squelettes fossilisés", explique Antonio Rosas, un scientifique du Conseil supérieur des recherches scientifiques (CSIC) en Espagne, l'un des principaux auteurs de cette étude. Cette nouvelle méthode s'appuie sur l'analyse de fragments d'ADN mitochondrial, transmis par la mère, et qui est le plus abondant. "C'est un peu comme si on découvrait qu'il est possible d'extraire de l'or de la poussière en suspension dans l'air", a renchéri Adam Siepel, un généticien au laboratoire national Cold Spring Harbor près de New York, qui n'a pas participé à ces travaux. Encore récemment, la seule façon d'étudier les gènes des hominidés anciens était d'extraire de l'ADN d'ossements ou de dents fossilisés. Mais ces fossiles sont rares et difficiles à trouver, ce qui a fortement limité la recherche sur les lieux où ils vivaient et l'étendue géographique de leur présence. Pour les denisoviens, les unique s ossements et dents dont disposent les scientifiques proviennent d'une seule grotte, en Sibérie. La nouvelle technique de détection de l' ADN dans les sédiments a été rendue possible seulement ces dernières années, grâce aux avancées technologiques, notamment le séquençage rapide. En l'absence d'ossements fossilisés, les différentes couches de sédiment du sol sont riches en ADN laissé par la décomposition des corps, les excréments et d'autres fragments de l'organisme qui témoignent de la présence humaine en ces temps préhistoriques et permet de déterminer quels groupes d'hominidés occupaient ces différents lieux et à quel moment. Ainsi sur le site denisovien en Sibérie, où l'homme de Néandertal a également séjourné, les chercheurs ont pu, grâce à cette technique, d&ea cute;couvrir en fonction des couches sédimentaires les différentes époques d'occupation de la grotte par ces deux groupes. Cette technique permet aussi de recueillir les informations génétiques sur les différents animaux présents sur ces sites. "Cet ADN de la mégafaune peut renseigner sur le régime alimentaire des néandertaliens et des denisoviens", explique Carles Lalueza Fox, un chercheur de l'Institut de biologie de l'évolution à l'Université Pompeu Fabra de Barcelone en Espagne, l'un des auteurs de l'étude. Les chercheurs ont pu par exemple déterminer que la grotte d'El Sidron dans le nord de l'Espagne - où ont été auparavant découverts les ossements d'au moins treize néandertaliens d'âge et de sexe différents, datant de quelque 49.000 ans - était le seul des huit sites étudiés où aucun ADN animal n'a été identifié. En revanche, l'ADN mitochondrial de douze différentes familles d'animaux préhistoriques a été trouvé dans les sept autres grottes. Les plus fréquents proviennent de mammifères de la famille des hyènes, des bovins, des chevaux, des cervidés et des chiens. Dans certains échantillons de sédiment, ces chercheurs ont retrouvé des fragments d' ADN du mammouth laineux disparu il y a quelque 4.000 ans. Ils sont aussi découvert de l'ADN de rhinocéros qui correspond à l'espèce laineuse éteinte voilà moins de 30.000 ans. Enfin, ces chercheurs ont recueilli de l'ADN dans une grotte de Croatie qui coïncide avec celui de la lignée des ours des cavernes en Europe de l'Est dont l'extinction remonte à 25.000 ans. Article rédigé par Georges Simmonds pour RT Flash Science | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|