| | | | | | | Edition du 07 Juillet 2017 |
| |
|
| Edito Homo Sapiens prend un coup de vieux !
C’est toute l’histoire de l’espèce humaine qui vient d’être bouleversée par les récentes découvertes d’une équipe internationale conduite par Jean-Jacques Hublin et Abdelouahed ben-Ncer. Ces chercheurs marocains, allemands et français ont en effet mis au jour, sur le site marocain de Jebel Irhoud des fossiles d’Homo sapiens primitifs associés à des outils de pierre de petite taille et des restes de faunes. Après datation à l’aide de deux techniques différentes, aucun doute possible : ces fossiles et vestiges préhistoriques ont au moins 300 000 ans. "Cette découverte implique un scénario évolutif complexe de notre humanité qui englobe l'ensemble du continent africain" souligne cette étude qui fera date. Selon le nouveau scénario proposé à la lumière de ces découvertes, ce site marocain ne doit cependant pas être considéré comme le nouveau berceau de l'espèce Homo sapiens. Celle-ci était très probablement déjà présente dans plusieurs régions d’Afrique et s’est répandue par migrations successives sur l’ensemble du continent africain, sans doute à la faveur de changements climatiques et environnementaux favorables. En outre, cette découverte tout à fait majeure confirme que pendant 100 000 ans, au minimum, au moins trois espèces distinctes du genre Homo, Homo Neanderthalensis, qui a vécu entre – 400 000 et – 28 000 avant notre ère, Homo Nadeli qui a vécu entre - 335 000 et - 236 000 ans avant notre ère et enfin Homo Sapiens ont coexisté et se sont probablement mélang&eac ute;es. C’est en 2004 qu’un ensemble exceptionnel de restes humains, notamment une face humaine et une mandibule, a été découvert sur le site de Jbel Irhoud dans le nord-ouest du Maroc. Et là, première surprise de taille : si le crâne de ces premiers Sapiens est assez différent du nôtre, leur face en revanche est proche de celle de l’homme moderne. C’est d’ailleurs ce qui fait dire à Jean-Jacques Hublin, non sans malice, que « Si l'homme de Jebel Irhoud portait un chapeau, et qu’on le croisait dans le métro, on ne pourrait pas le différencier de nous ». A l’issue de cette nouvelle campagne de fouilles, engagée en 2004, ces archéologues ont découvert 16 nouveaux restes humains sur ce seul site marocain, ce qui est considéré comme exceptionnel. Ces restes auraient appartenu à au moins à cinq individus : trois adultes, un adolescent et un enfant. Mais l’immense surprise qu’ont eue ces chercheurs réside dans l'âge de ces fossiles, environ 300 000 ans, qui a pu être déterminé avec une grande fiabilité par Daniel Richter, expert en géochronologie à l'Institut Max Planck de Leipzig au moyen de la thermoluminescence. Ces premiers Sapiens « archaïques » sont donc bien plus anciens que les fossiles humains vieux de 200 000 ans, découverts à Omo Kibish en Ethiopie, et sont également plus anciens que ceux découverts près du village de Herto, en pays Afar et qui ont 160 000 ans. En découvrant ce foyer d’Homo Sapiens qui vivaient au Maroc, il y a plus de 300 000 ans, l’équipe de Jean-Jacques Hublin oblige à réviser la théorie dominante jusqu’à présent : celle qui faisait de l’Afrique de l’Est le berceau unique de l’homme moderne. Cette superbe découverte explique également pourquoi on retrouve un peu partout en Afrique différents types d’outils préhistoriques également datés de 300.000 ans. Selon Daniel Richter « Nous avons à présent des preuves solides que la présence des outils sur de nombreux sites africains est bien liée à celle de l'Homo sapiens. Dans le nouveau scenario qui émerge, il semble donc bien qu’Homo Sapiens se soit répandu dans l’ensemble de l’Afrique il y a plus de 300 000 ans. Il semble également très probable qu’au sein des mêmes bassins écologiques, il y ait eu coexistence durable de nombreuses espèces et rameaux humains, qu’il s’agisse des Homo sapiens archaïques, d'Homo erectus, des néandertaliens, des denisoviens ou encore des Homo naledi découverts récemment... Comme le souligne Pascal Picq, Professeur au Collège de France, ce nouveau scénario présente également un autre mérite : il explique beaucoup mieux pourquoi les technologies employées au paléolithique moyen, comme la technique de taille des pierres bifaces, se sont répandues aussi vite. Il est intéressant de rapprocher cette découverte de l’Homo Sapiens archaïque vieux de plus de 300 000 ans, avec une autre avancée scientifique tout aussi fondamentale, mais qui n’a pas eu le même retentissement médiatique. Il s’agit du remarquable travail dirigé par l'anthropologue Jessica Thompson (Emory University) et publié il y a deux ans (Voir Science Daily). A partir de l’analyse méticuleuse au microscope de plus de 4000 fossiles de faune récupérés sur un site éthiopien et en identifiant 450 marques sous forme d’entaille, ces scientifiques ont pu établir avec une quasi-certitude que les marques trouvées sur certains os n’ont pas pu toutes être causées par des morsures d’animaux mais très probablement par des outils conçus et fabriqués pour le dépeçage… Cette étude très solide vient donc conforter l’hypothèse d’un dépeçage de grands animaux avec des outils il y a 3,4 millions d’années. Or, à cette date, nous étions encore au moins 600 000 ans avant l’apparition d’Homo Habilis, le premier représentant connu du genre Homo ! Conclusion : il ne semble plus du tout impossible que nos lointains ancêtres australopithèques (qui ont vécu entre 6 millions et 2,5 millions d’années avant notre ère), en dépit de leur petit cerveau (550 cm3) aient pu être capables de concevoir et de fabriquer des outils sophistiqués, faisant ainsi preuve de capacités cognitives bien plus développées que celles qu’on leur prêtait jusqu’à présent. Si l’on revient à présent dans des temps préhistoriques beaucoup plus proches de nous, on constate que le scénario de l’évolution humaine est également profondément remis en cause par plusieurs études récentes qui éclairent d’une lumière nouvelle la question de la coexistence entre Homo sapiens et l’homme de Neandertal. Pendant très longtemps, la communauté scientifique a en effet majoritairement penché pour l’hypothèse d’un métissage unique entre Neandertal et Homo sapiens, qui aurait eu lieu au Proche-Orient, il y a 50.000 à 60.000 ans, avant que l’homme moderne n’arrive en Europe et en Asie. Mais cette théorie s’est trouvée sérieusement fragilisée par une étude du paléoanthropologue chinois Qiaomei Fu (Key Laboratory of Vertebrate Evolution and Human Origins). Ce scientifique reconnu a pu montrer, à partir de l’analyse du génome d’une mâchoire humaine âgée d’environ 40 000 ans, découverte sur le site d’Oase en Roumanie, que ce métissage avait également eu lieu en Europe, au cours d’une période de 5.000 ans au moins. Cette découverte conforte les deux études publiées début 2014, qui avaient déjà montré que les hommes actuels d'origine européenne ou asiatique possèdent en moyenne de 1 à 3 % du génome de leur ancêtre néanderthalien, disparu il y a 30 000 ans. Dans cette trop brève évocation de notre foisonnante aventure humaine, il faut également dire un mot d’une autre découverte récente, publiée le 27 avril dernier dans la revue Nature. S’appuyant sur l’analyse d’ossements trouvés en 1992 pendant la construction d’une autoroute, ces recherches dirigées par Judy Gradwohl (Muséum d'histoire naturelle de San Diego), ont montré qu’il y avait des humains en Californie, il y a plus de 130 000 ans, c’est-à-dire avant qu’Homo sapiens ne quitte l’Afrique pour essaimer sur toute la planète. Eric Boëda, préhistorien réputé à l’Université Paris X Nanterre, n’est pas surpris par cette étude, qu’il juge « solide et convaincante ». Il dirige une mission archéologique au Brésil sur des sites qui ont livré des signes d’occupation humaine vieux de 35 000 ans. Selon lui, cette découverte majeure ne fait que confirmer, à la suite de nombreux autres indices, qu’Homo Sapiens ne s’est probablement pas répandu sur toute la planète à partir d’un foyer original unique mais était probablement déjà présent simultanément dans plusieurs régions du monde depuis bien plus longtemps qu’on le pensait jusqu’à présent. Enfin, évoquons, pour finir de brosser les grandes lignes du nouveau scénario extraordinaire de l’odyssée humaine, la découverte faite fin 2014 à Java (Indonésie) par des chercheurs de l’Université d’Amsterdam. En étudiant des coquillages découvert en 1891 sur le site de Trinil, ces scientifiques ont constaté avec stupéfaction que ceux-ci étaient recouverts des motifs géométriques vieux d’au moins 500 000 ans, comme l’attestent les deux méthodes indépendantes de datation utilisées. Cette découverte considérable montrait donc qu’Homo erectus, 400 000 ans avant Homo Sapiens, longtemps considéré comme seul capable de réaliser ce type de figures, avait bien réalisé des gravures et dessins abstraits… Ce profond bouleversement dans le scénario de l’apparition et de l’évolution de l’homme risque encore de se poursuivre grâce à l’utilisation d’un nouvel outil tout à fait révolutionnaire qui vient d’être présenté il y a quelques semaines par le biologiste suédois Svante Paabo. Il s’agit d’une technique de métagénomique, ou « shotgun », qui permet de séquencer l'ADN mitochondrial directement dans le sol, par exemple issu de déjections animales. Cette technique extrêmement sensible a en effet permis de détecter de l'ADN de Néandertaliens et de Dénisoviens dans les sédiments de plusieurs grottes et permet donc d'établir leur présence même en l'absence d'os. Grâce à ce nouvel outil, paléontologues et archéologues vont pouvoir déterminer avec bie n plus de précision et de fiabilité quelles espèces d’hominidés vivaient dans une région et à une époque précise, et cela, même en l’absence du moindre fossile… On le voit, en moins de 10 ans, l’alliance féconde de multiples disciplines, paléontologie, archéologie, biologie, écologie, génétique, mathématique, informatique, sciences des matériaux, a permis de faire émerger une nouvelle représentation générale de la longue évolution de l’homme bien plus riche, complexe et foisonnante que tout ce que nous aurions pu imaginer. Dans un fascinant processus dialectique intégrant l’évolution cognitive, l’outil, le langage, la nature, l’art et le sacré, les multiples espèces du genre Homo qui se sont succédées et côtoyées depuis la nuit des temps n’ont cessé de communiquer entre elles, d’échanger des pratiques, des techniques, des rites et des savoirs et ainsi s’enrichir mutuellement, même si, finalement, Homo sapiens l’a emport&ea cute; sur tous ses « cousins » humains. A présent que nous avons le pouvoir démiurgique de modifier notre propre évolution, espérons que nous saurons nous rappeler d’où nous venons et que nous saurons mériter ce qualificatif de « sapiens » (1) en œuvrant tous ensemble pour que cette magnifique aventure humaine puisse se poursuivre longtemps encore. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat (1) Homo sapiens (« homme savant »), communément appelé Homme moderne, « Homme », « Homme anatomiquement moderne », « humain » ou encore « être humain », est une espèce de primates appartenant à la famille des hominidés (Wikipedia). | |
| | Nanotechnologies et Robotique | |
| | | Billy-Billy, le nouveau robot de Zorarobotics, a été conçu pour aider les seniors au quotidien mais aussi lutter contre la solitude à laquelle ils sont confrontés. Que fait-il ? Il rappelle que l’infirmière arrive à 10 h, qu’il faut ouvrir la fenêtre pour aérer et changer l’air de la pièce, qu’il y a une réunion familiale ce week-end, que c’est la fête des mères, etc. Concrètement, si vous décidez d’en offrir un à votre grand-mère, la graine (la sélection de plantes doit s’élargir dans les prochaines semaines) et le sachet avec de la terre sont fournis avec le robot. Tout ce qu’il faut, c’est une connexion Internet et, en quelques minutes, le tour est joué ! "On voulait quelque chose qui soit familier, naturel dans le décor de la maison et simple à utiliser", explique-t-on chez Zorarobotics. Billy-Billy, équipé de capteurs, va mesurer la lumière, prendre la température de la pièce mais aussi calculer le taux d’humidité de son terreau. Quand il a soif, il demande donc à son propriétaire de le nourrir. Et lui rappelle par la même occasion de ne pas s’oublier lui-même ! "C’est pour ça qu’il s’appelle Billy-Billy. C’est une relation à deux sens : la personne âgée prend soin de la plante et la plante prend soin de la personne âgée", précise Fabrice Goffin, CEO de l’entreprise, qui définit son invention comme un pense-bête. Pas besoin d’avoir la main verte pour le faire fonctionner correctement puisque c’est le robot lui-même qui vous explique les caractéristiques de sa fleur ! Il faut qu’un tiers - de préférence un proche (un fils, un petit-fils, une amie, etc.) - ait accès au système de Billy-Billy sur son smartphone. Comme dans un agenda, cette personne va indiquer les occupations de la semaine pour que le robot les communique à son propriétaire. Elle peut aussi voir depuis combien de temps il n’y a pas eu d’interaction entre les deux. Par exemple, si la personne ne lui a pas donné de l’eau, c’est mauvais signe. Connecté à Internet et une plate-forme, ce pot de fleur hors du commun fait aussi office de facteur. En effet, si vous écrivez un e-mail ou un SMS à Bon-papa, c’est Billy-Billy qui le lui lira ! Face à une population de plus en plus vieillissante, la firme Zorarobotics, active dans le domaine de la santé depuis environ quatre ans, a voulu rassembler "un partenaire santé et un compagnon social" en une seule création. Article rédigé par Georges Simmonds pour RT Flash Dhnet | | ^ Haut | |
|
| | | La capacité mondiale installée en énergies renouvelables a atteint un nouveau record en 2016, avec 161 GW supplémentaires, souligne le réseau REN 21 dans son nouveau rapport annuel sur les ENR. Au total, les énergies renouvelables représentent désormais 2.017 GW. Le photovoltaïque domine toujours, représentant 47 % des capacités nouvelles, suivi de l'éolien (34 %) et de l'hydroélectricité (15,5 %). "Toutefois, la transition énergétique reste insufisamment rapide pour atteindre les objectifs de l'Accord de Paris", alerte REN 21. Poursuivant la tendance entamée l'année dernière, "les énergies renouvelables deviennent l'option la plus économique" dans un nombre croissant de pays. "Des transactions récentes au Danemark, en Egypte, Inde, Mexique, Pérou et aux Emirats Arabes Unis ont vu le coût de l'électricité chuter à 0,05 dollar/KWh. Ce chiffre est bien en-dessous du coût de l'énergie fossile ou nucléaire produite dans ces pays", détaille REN 21. Le kilowattheure photovoltaïque est même passé en dessous de 0,03$ en Argentine, au Chili, en Inde, Jordanie, Arabie Saoudite et aux Emirats Arabes Unis. En Allemagne, deux projets éoliens offshore ont été lauréats d'un appel d'offres alors qu'ils ne bénéficiaient d'aucune subvention publique, "se basant uniquement sur le prix de la vente en gros, démontrant de facto que les renouvelables sont l'option la plus économique". Pourtant, les subventions aux energies fossiles et au nucléaire excèdent encore largement celles des ENR : "A la fin de l'année 2016, plus de 50 pays s'étaient engagés à éliminer les subventions aux énergies fossiles ; certaines réformes ont eu lieu mais pas en nombre suffisant". Article rédigé par Georges Simmonds pour RT Flash Actu-Environnement | | | |
| Des chercheurs de l’Université Rice à Houston ont récemment annoncé avoir réussi à créer une batterie lithium métal trois fois plus performante qu’une batterie lithium-ion. Ils sont parvenus à ce résultat en résolvant le problème des dendrites qui jusqu’à présent, constituait un obstacle majeur au développement de cette technologie. La batterie lithium métal charge plus vite et offre une meilleure autonomie que la batterie lithium-ion. Cependant, elle a tendance à développer des dendrites. Les dendrites sont formées à partir des dépôts de lithium qui se forment sur les anodes. Avec l'augmentation des cycles d'utilisation de la batterie, la quantité de dendrites augmente progressivement à l’intérieur de l’électrolyte de la batterie. Lorsque ces dendrites atteignent l'autre électrode de la batterie, elles créent une liaison directe entre l’anode et la cathode, ce qui provoque un court-circuit qui peut endommager la batterie, la faire prendre feu ou la faire exploser. La batterie des chercheurs permet de stocker une grande quantité de lithium dans une anode unique en son genre qui possède d’excellentes propriétés conductrices. Cette anode est formée par un mélange hybride en 3D de nanotubes de carbone unis par des liaisons covalentes à une surface plane en graphène. L’anode en elle-même approche la limite maximale théorique des capacités de stockage de la batterie lithium métal tout en s’opposant à la formation des dépôts "mousseux" et des dendrites tant redoutées. « Les batteries lithium-ion ont révolutionné le monde, c’est certain », a déclaré James Tour, un professeur d’informatique, de science des matériaux et de nano-ingénierie à l’Université Rice. Cependant, les batteries lithium métal ont encore plus à offrir. Il a ajouté que grâce à la grande quantité de nanotubes qu’elles contiennent, à leur faible densité et leur plus grande surface d’échange, les nouvelles anodes hybrides permettent aux particules de lithium de circuler plus facilement pendant les cycles de charge et de décharge. Elles permettent une répartition plus uniforme du lithium et autorisent une meilleure distribution du courant généré par le déplacement des ions dans l’électrolyte. Tout cela contribue à diminuer efficacement la formation et la croissance des dendrites. « Pour tester l’anode, le laboratoire de l’Université Rice a construit des batteries complètes avec des cathodes spéciales à base de soufre. Ces batteries ont conservé 80 % de leur capacité après plus de 500 cycles de charge-décharge. Cela correspond environ à deux ans d’utilisation pour un utilisateur normal de téléphone cellulaire. Même si la capacité du prototype actuel de la batterie est encore limitée par les améliorations qu'il faut apporter à la cathode, l’anode hybride possède déjà une capacité de stockage de lithium équivalant à 3351 mAh par gramme (mAh/g). Une valeur qui est proche de la capacité maximale théorique du lithium pur (3860 mAh/g), et déjà 10 fois supérieure à celle des batteries lithium-ion », a précisé James qui souligne que "L’anode hybride et sa batterie lithium métal sont amenées à remplacer l’anode en graphite et les batteries lithium-ion peu fiables sur le plan de la sécurité". Article rédigé par Georges Simmonds pour RT Flash Développez.com | | | |
| Renault, en coopération avec Qualcomm Technologies et Vedecom, vient de présenter un système de charge dynamique pour recharger les véhicules électriques en roulant. Les premiers tests ont été effectués avec deux Renault Kangoo Z.E. sur une longue piste d’essai, dont cent mètres étaient équipés avec les nouveaux modules technologiques. Le système de charge dynamique développé par le constructeur automobile permet une charge de 20kW à une vitesse de 100km/h. Reposant sur le phénomène d’induction, cette technologie fait intervenir un transfert d’énergie entre la chaussée et le véhicule via un champ électromagnétique. La chaussée est équipée d’un système de détection qui fournit de l’énergie lorsqu’un véhicule approche. Alimentées en énergie, des bobines situées dans la chaussée génèrent un champ magnétique qui induit un courant électrique dans le module récepteur installé dans le véhicule. L’énergie générée est envoyée vers le moteur ou la batterie en fonction des besoins. Si la technologie encore en phase R&D voit le jour, le module récepteur pourra être intégré à tous les véhicules électriques dès la conception. Les constructeurs automobiles mettent au point des batteries plus grosses et avec des capacités à stocker l’énergie plus importantes. De quoi répondre aux besoins énergétiques pour les petits trajets. Cette technologie pourrait apporter une solution complémentaire pour parcourir de plus longues distances. A terme, l’objectif est de la déployer sur des axes routiers existants, notamment sur les autoroutes. Reste à savoir si la technologie est adaptée à des conditions de conduite réelles... D’après Renault, les premiers tests sont déjà concluants puisque la charge sans contact fonctionne même si le conducteur ne roule pas droit, ou s’il module sa vitesse. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Loin d’être un processus continu, la fonte d’une calotte glaciaire se produit par secousses. Le niveau de la mer s’élève, le sol remonte, des masses glaciaires glissent et se détachent… Les paléoclimatologues ont pu documenter de tels événements, tels que ceux dits de Heinrich. Ce sont de vastes débâcles d’icebergs provenant de l’instabilité des calottes, au cours de la dernière ère glaciaire. Pour chacun d’entre eux, la fonte brutale de la calotte groenlandaise correspond à une phase d’aridification de l’Afrique de l’Ouest. Les événements de Heinrich correspondent à des débâcles massives d'icebergs dans l'océan Atlantique Nord qui ont eu lieu lors des glaciations quaternaires, notamment lors de la dernière période glaciaire il y a environ entre 119 000 et 12 000 ans. Ces débâcles sont dues à une instabilité des calottes polaires et des glaciers qui couvraient alors une partie des continents de l'hémisphère Nord. En fondant, les icebergs ont libéré les sédiments qu'ils contenaient, ce qui a formé des couches de sédiments spécifiques sur le plancher océanique, les IRD (de l'anglais « Ice Rafted Debris »). La définition stricte d'un événement de Heinrich est la présence d'une telle couche d'IRD observée dans les carottes marines de l'Atlantique Nord. Une collaboration associant climatologues, agronomes et anthropologues a voulu savoir quelles seraient les conséquences d’un tel événement à l’échelle de notre siècle. Pour cela, les chercheurs ont choisi le plus pessimiste des quatre scénarios examinés par le GIEC1, malheureusement considéré aujourd’hui comme le plus réaliste. Avec ces hypothèses d’émissions de dioxyde de carbone, ils ont effectué des simulations climatiques globales, en considérant une fonte supplémentaire de la calotte glaciaire groenlandaise, entre 2020 et 2070, comprise entre 0,50 et 3 m d’élévation du niveau marin (la fonte totale correspondant à environ 7 m). Ces simulations révèlent un mécanisme similaire aux conséquences climatiques dues aux précédents événements de Heinrich. L’apport d’humidité au Sahel diminue, la « barrière des pluies » est déviée au sud. Résultat : la mousson africaine est très fortement atténuée pendant cette perturbation climatique sur le Sahel, rendant impossible la culture du sorgho et du millet dans ces zones. Compte tenu de la démographie du Sahel, des dizaines ou des centaines de millions de personnes devraient alors rejoindre les zones urbaines les plus proches, faute de ressources alimentaires locales. Ce résultat montre qu’une fonte accélérée du Groenland au cours du 21ème siècle aurait, en plus des conséquences dévastatrices et connues sur les zones côtières, également un impact à l’intérieur des continents lié à la modification des zones de moussons. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| La première usine au monde de capture de dioxyde de carbone (CO2) vient d’être mise en route. Elle se situe en Suisse, à Hinwil, à cinq kilomètres de Zurich. Cette installation est l’oeuvre de la société Climeworks, qui envisage de transformer 1 % du CO2 de la planète à l’horizon 2025. L’idée de Climeworks, à l’origine de l’installation, est simple : capturer directement le CO2 s’échappant d’une usine d’incinération des déchets, le stocker puis le vendre aux serres des alentours. D’après Futurism, le dioxyde de carbone est un fertilisant agricole exceptionnel. Les 1 000 tonnes de CO2 capturées par année pourront donc servir à faire pousser des tomates ou des laitues. L’installation, logée dans plusieurs containers, est plutôt légère et son processus de fonctionnement est relativement simple : le CO2 est filtré et absorbé par des éponges pendant plusieurs heures. Une fois le filtre saturé, celui-ci est chauffé à 100 degrés. À cette température, le CO2 se solidifie et peut donc ensuite être exploité. Comme le note Fast Company, cette usine est particulièrement intéressante parce qu’en plus d’être économiquement viable, son exploitation est "mille fois plus efficace que la photosynthèse". Enfin, d’après Climeworks, des milliers d'usines comme celles-ci seraient nécessaires dans les années à venir pour que l’accord de Paris sur le climat soit respecté. D’autant que le CO2 peut être enterré s’il ne peut pas être revendu, une pratique encore expérimentale mais jugée écologiquement efficace. L’usine de capture ne va cependant pas résoudre tous les problèmes liés au réchauffement climatique : pour ne capturer qu’un pourcent des émissions mondiales, il faudrait installer 750 000 usines comme celle que l’on trouve à Zurich. Article rédigé par Georges Simmonds pour RT Flash Mashable | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Selon une étude menée par l’Université Autonome de Madrid (UAM), la dégénérescence physique des personnes âgées pourrait être en partie provoquée par une exposition excessive à certains polluants atmosphériques présents dans l’air que nous respirons. Ces travaux démontrent que les polluants atmosphériques peuvent produire une limitation des fonctionnalités et une fragilité chez les personnes âgées. L’exposition tant au tabagisme passif qu’à des métaux comme le plomb et le cobalt sont dorénavant associés à la déficience physique des anciens. Selon la chercheuse de l’Université Autonome de Madrid responsable du projet, les résultats de cette étude montrent que la réduction de la pollution atmosphérique peut diminuer non seulement la mortalité mais aussi la dégénérescence physique des personnes âgées. Leur vulnérabilité s’explique par le fait qu’ils sont généralement plus exposés à certains polluants, qu’ils ont une capacité moindre à les éliminer de leur organisme, et qu’ils ont accumulé des polluants tout au long de leur vie. Article rédigé par Georges Simmonds pour RT Flash UAM | | | |
| Une équipe de scientifiques belges associant l’Institut flamand pour les biotechnologies (Vlaams Instituut voor Biotechnologie, VIB), l’Université de Gand (UGent) et l’Université Libre, néerlandophone, de Bruxelles (Vrije Universiteit Brussel, VUB) a réussi à activer des cellules immunitaires "dormantes", ce qui permet de les faire intervenir contre les tumeurs. Cette avancée ouvre une nouvelle voie pour traiter une forme difficile de cancer de la moelle osseuse, le myélome multiple. "Plus nous vieillissons, plus de la graisse vient s’accumuler dans notre moelle osseuse", explique le professeur Dirk Elewaut (VIB-UGent et UZ Gent). "Cette augmentation va de pair avec une augmentation du risque de myélome multiple, une forme de cancer de la moelle osseuse difficile à traiter." Son équipe avait précédemment découvert comment la leptine, une hormone produite par les cellules graisseuses, affaiblit le système de résistance contre le cancer. "En stoppant cette hormone, les cellules immunitaires peuvent à nouveau faire leur travail de manière optimale." En collaboration avec des chercheurs de la VUB, le professeur Elewaut s’est concentré sur les lymphocytes NKT, un type de globule blanc qui "patrouille" dans le corps. "Certaines immunothérapies stimulent ces cellules, après quoi elles sécrètent des substances puissantes qui engagent le combat contre le cancer. Après cette stimulation initiale, les lymphocytes NKT entrent dans une sorte d’état de sommeil, ce qui bloque leur capacité à lutter contre les tumeurs. C’est surtout problématique pour les patients qui ont besoin de traitements supplémentaires." "Pour vaincre cet état de sommeil, nous avons agi sur le fonctionnement de la leptine, une hormone qui renforce les lymphocytes NKT", souligne le Professeur Elewaut, qui poursuit "Cette recherche ouvre de nouvelles perspectives pour les immunothérapies car le mécanisme que nous avons découvert peut sans doute être employé contre plusieurs formes de cancer". Article rédigé par Georges Simmonds pour RT Flash France Diplomatie | | | |
| Une équipe de recherche menée par Emmanuel de Langre, professeur au Laboratoire d’hydrodynamique de l’École polytechnique (CNRS/École polytechnique), en collaboration avec le Laboratoire de physique et de physiologie intégratives de l’arbre en milieu fluctuant (Université Clermont-Auvergne /INRA) et l’Institut de biologie intégrative de la cellule (Université Paris-Sud/CNRS/CEA), vient de développer un dispositif de phénotypage des plantes sans contact et par signature vibratoire. Un brevet, en copropriété École polytechnique/CNRS/Inra, a été déposé dans le cadre du programme de prématuration Vibrophene en vue d’une future utilisation industrielle. Le phénotypage non destructif d’une plante consiste à identifier une caractéristique physique de lots de plantes et de la suivre au cours de leur croissance. Cela permet par exemple de révéler les différences entre différents traitements expérimentaux ou entre différents génotypes. Il existe ainsi des plates-formes de phénotypage haut-débit (high throughput phenotyping) qui se développent dans le monde entier, capables de traiter des centaines de plantes chaque jour et pour lesquelles des entreprises spécialisées développent des systèmes de mesure non destructifs. Le vent déforme et fait bouger les plantes, de l'arbre entier à la feuille individuelle. Ces mouvements sont importants pour la plante, pour son fonctionnement, sa croissance et parfois sa survie. Ainsi, la connaissance des fréquences vibratoires permet de construire une signature mécanique de la plante analysée, particulièrement utile pour connaitre, par exemple, le risque de casse au vent ou de déformation en période sèche. La méthode de phénotypage sans contact par signature vibratoire, développée conjointement par l’École polytechnique, le CNRS et l’INRA, permet de caractériser, de manière précoce et discriminante, des phénotypes inconnus jusqu’alors. Déjà largement automatisée, elle peut être optimisée pour le phénotypage haut-débit de plantes. Cette nouvelle technique est de plus complémentaire des méthodes classiques de caractérisation des dimensions des plantes ou des spectroscopie et fluorométrie optiques déjà mises en œuvre dans le domaine du phénotypage haut-débit. En révélant de nouveaux phénotypes inconnus, elle permet de mesurer des caractères qui sont importants pour éviter la perte des plantes face au vent, une source majeure de pertes de rendement. Deux prototypes de machines automatiques ont été construits et sont actuellement en phase de test intensif par les équipes du CNRS à Gif-sur-Yvette et de l'INRA à Clermont-Ferrand. Ces nouvelles machines permettent d’industrialiser le résultat du phénotypage, le phénotype de la plante étant rendu disponible en moins d’une minute contre 2 à 3 heures auparavant. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| On savait déjà que le thé pouvait avoir de nombreux effets bénéfiques pour la santé, dont la réduction des risques de maladies cardiaques et d’hypertension, et la protection de certains cancers. Mais d’après les travaux des chercheurs de l’Université Uppsala, en Suède, et de différentes institutions européennes, ces effets pourraient aller jusqu’à modifier la façon dont l’ADN s’exprime chez les femmes. Cette découverte expliquerait comment les composés du thé protègent l’organisme, grâce aux modifications chimiques qui activent ou désactivent les gènes, appelés épigénétiques. Pour l’étude, publiée par la revue Human Molecular Genetics, la chercheuse Weronica Ek et ses collègues ont analysé les données de quatre cohortes européennes incluant près de 3.100 personnes vivant en Europe. Leur consommation de café et de thé a été comparée à leur génome. C’est ainsi que les scientifiques ont observé des changements épigénétiques chez la femme habituée à consommer du thé, mais pas chez l’homme, ni chez les consommateurs de café. Les 28 zones génétiques en question seraient impliquées dans le cancer et dans le métabolisme de l’œstrogène, l’hormone sexuelle féminine. Le type de thé ni la quantité n’ont été précisés, mais les chercheurs estiment que le thé noir serait le plus répandu parmi les participants à l’étude. Cette étude vient donc confirmer d’autres études qui avaient déjà associé la consommation de thé à une diminution de la progression des tumeurs, à une baisse de l’inflammation, ainsi qu’à un taux d’œstrogène plus bas chez les femmes. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | | |
| Pour fonctionner, les cellules de l'organisme doivent utiliser l'information que contient leur ADN : une partie de leurs gènes doit être traduite en protéines. Et pour cela, chaque gène doit d’abord être copié sous la forme d’un ARN messager, une petite molécule qui servira ensuite de matrice pour la synthèse de protéines. Pour amorcer ce processus, il faut d'abord l'intervention d'une hélicase, capable d'ouvrir la double hélice d'ADN. Puis une ARN polymérase II, qui va permettre de fabriquer l'ARN messager. Pour agir, on sait que l'ARN polymérase II s'appuie sur un coéquipier, le facteur XPB porté par un complexe plus volumineux, le TFIIH. Jusqu'à présent, on pensait que XPB avait une fonction d'hélicase : en consommant une entité énergétique d'ATP, il favorisait l'ouverture du double brin d'ADN et sa transcription en ARN. Mais une équipe strasbourgeoise vient de montrer qu'XPB n'agit pas comme un catalyseur de la transcription. En réalité, ce composant forme en réalité un verrou fixé sur le brin d'ADN : Ce n'est que lorsqu'il saute que l'ADN s'ouvre, permettant aux gènes d’être transcrits. La présence d’XPB ne serait pas nécessaire à la transcription. Et l'ATP, indispensable à cette étape, ne servirait pas à ouvrir l'hélice mais à déplacer XPB le long du double brin. Frédéric Coin, qui a dirigé le travail, raconte les circonstances de cette découverte inattendue : « Nous avions observé qu'une petite molécule, la triptolide, pouvait bloquer l'activité ATPase de XPB. Pour mieux étudier l'activité du complexe TFIIH, nous voulions aussi utiliser la spironolactone qui peut quant à elle dégrader chimiquement le XPB. Nous nous attendions à ce que les deux molécules aient la même conséquence, à savoir qu'elles inhibaient toutes les deux la transcription des gènes. Or, nous avons observé deux conséquences opposées : la transcription était gênée sous triptolide et se poursuivait sous spironolactone ». Face à un tel résultat, le chercheur et son équipe ont conduit une série d'expériences. Tout d’abord, ils se sont assurés que des traces résiduelles de XPB n'étaient pas à l'origine du maintien de la transcription sous spironolactone. Ils ont ensuite étudié l'impact d'un mélange de spironolactone et de triptolide : en observant alors le maintien de la transcription des gènes, les chercheurs ont prouvé que le XPB n'a finalement pas de rôle hélicase. Les résultats de ces travaux ont deux implications principales : la première concerne la recherche fondamentale : "On comprend désormais mieux la façon dont la transcription des gènes est régulée", explique Frédéric Coin. "Le XPB n'est pas un outil qui sert à ouvrir l'hélice d'ADN, il se comporte plutôt comme un élément supplémentaire de régulation de cette transcription. En se déplaçant grâce à une molécule d'ATP, il libère la zone promotrice et permet la séparation des brins". Ces données sont importantes pour continuer à étudier avec exactitude comment le patrimoine génétique est exprimé et régulé au niveau cellulaire. La seconde implication concerne l'oncologie : en effet, XPB intervient également dans le mécanisme de réparation de l’ADN, suite à une mutation ou une cassure. Ces altérations sont recherchées dans le cadre des traitements anticancéreux : la chimiothérapie par sels de platine, par exemple, est utilisée parce qu'elle provoque des lésions sur l'ADN des cellules cancéreuses, rendant ces dernières incapables de se multiplier. Mais en pratique, on observe souvent une diminution de l’efficacité de ces traitements avec le temps : c'est parce que les cellules tumorales s'adaptent et amplifient leur mécanisme de réparation par XPB. Trouver une molécule qui bloquerait XPB pourrait donc constituer une piste de traitement adjuvant, qui permettrait de renforcer l'action de la chimiothérapie … Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Selon une étude de l'Inserm et du CNRS (Laboratoire de psychologie sociale et cognitive de Clermont Auvergne, Institut de psychologie sociale et cognitive et Institut de neurosciences de la Timone-Aix-Marseille), notre cerveau compterait des "neurones sociaux". Ces derniers s’enclencheraient uniquement lorsque vous êtes en présence de quelqu’un et influenceraient le comportement. Ce qui expliquerait pourquoi la manière d’être diffère toujours un peu en fonction de ceux qui vous entourent ! Pour le prouver, des scientifiques ont incité des singes à associer une image sur un écran à l’une des 4 cibles réparties dans les coins de ce même support. Une tâche faisant appel au cortex pré-frontal, impliqué dans les fonctions exécutives et cognitives. Et « non aux aires cérébrales dites sociales ». Chaque jour, « un enregistrement de l’activité électrique des neurones dans cette région cérébrale a été effectué, alors que les singes effectuaient cette même activité en présence ou en l’absence d’un congénère ». Résultats, « certains neurones (sociaux) ne s’activent fortement que lorsque le congénère est présent alors que d’autres (asociaux) ne s’activent fortement qu’en l’absence du primate ». Autre fait, plus les neurones sociaux se mettent à travailler en présence d’un autre singe, plus le primate réussit la tâche proposée. Comme si la présence d’un autre animal stimulait ses capacités de concentration. Par ailleurs, lorsque les neurones sociaux s’activent alors que le singe est seul, la réalisation de l’exercice en pâtit. Idem lorsque les neurones asociaux s’activent quand le singe est entouré. Transposées chez l’Homme, ces observations « révèlent l’importance du contexte social dans le fonctionnement de l’activité neuronale et ses conséquences sur le comportement », notent les scientifiques. Elles permettent aussi « de repenser le cerveau social ainsi que certains troubles du comportement caractéristiques de l’autisme ou de la schizophrénie ». Article rédigé par Georges Simmonds pour RT Flash La Dépêche | | | |
| Une nouvelle étude menée par des chercheurs de la Radboud University à Nijmegen, aux Pays-Bas, a révélé que lorsque nous anticipons un événement, nous le visualisons automatiquement en « avance rapide » au préalable (à au moins deux fois la vitesse de l’objet réel), nous permettant de prendre des décisions cruciales en cas de situations dangereuses (par exemple, lire la trajectoire d’une voiture qui accélère en traversant une route très fréquentée). « La vision humaine est incroyablement détaillée et a, par exemple, une meilleure résolution par rapport à d’autres sens comme l’ouïe ou l’odorat », explique le Docteur Matthias Ekman, principal auteur de cette étude. « Cependant, le transport de l’information est relativement lent ; il nous faut environ 200 millisecondes pour “transporter” l’information de nos yeux vers notre cortex visuel ». En d’autres termes, cela signifie que nous examinons constamment le passé récent. Ce que les chercheurs détaillent dans cette étude, c’est que notre cerveau aurait développé un moyen « d’annuler » ce délai de perception. Le processus consiste à constamment faire des prédictions sur les événements futurs. « Le monde dans lequel nous vivons est régi par des lois physiques. Une pomme tombera toujours vers le sol. Une voiture qui roule ne disparaîtra pas soudainement et pour apparaître ailleurs », explique le chercheur. « Nous pouvons utiliser cette connaissance des expériences passées pour faire des prédictions “intelligentes” sur ce qui se passera dans le futur ». Dans la vie quotidienne, nous sommes souvent confrontés à des objets en mouvement tels que des voitures et nous devons anticiper leurs mouvements. Pour comprendre comment le cerveau humain anticipe de tels mouvements, Ekman et son équipe ont demandé à 29 participants en bonne santé de visionner une séquence de points. Les participants ont été invités à regarder la même animation répétée 108 fois durant laquelle des points se baladaient de gauche à droite et de droite à gauche en une demi-seconde. Après ces nombreuses séances, les cerveaux des participants étaient donc bien préparés à anticiper les mouvements à venir de chaque point. Les participants ont ensuite été amenés à observer des séquences aléatoires, certaines comme les précédentes avec le point qui se déplaçait à travers l’écran tandis que d’autres ne présentaient que le début ou la fin de la séquence. Grâce à des analyses cérébrales d’imagerie par résonance magnétique fonctionnelle ultrarapide (fMRI), ils ont alors pu décrire le motif d’activité neuronale qui accompagne ces séquences de points en analysant le flux sanguin dans certains tissus. Au fur et à mesure que les volontaires regardaient les points "sauter", une partie correspondante de leur cortex visuel s’illuminait à chaque étape. En ne montrant que le point de départ, les mêmes parties du cerveau ont été activées, complétant mentalement la séquence en anticipant à deux fois la vitesse réelle des séquences de points. Article rédigé par Georges Simmonds pour RT Flash Science Post | | | |
| L'Institut National du Cancer américain (NCI) vient de publier une nouvelle étude qui confirme une corrélation statistique entre la consommation de viande rouge et le risque de décès prématuré. L'intérêt de cette nouvelle étude repose non seulement sur la taille de son échantillon mais aussi sur sa précision puisqu'elle détaille la corrélation entre les différents composants de la viande et pas moins de 9 causes de surmortalité (cancer, pathologie cardiaque, pathologie respiratoire, AVC, diabète, infections, maladie d’Alzheimer, insuffisance rénale chronique, insuffisance hépatique). Le lien entre consommation de viande rouge et décès prématuré avait déjà été établi par quelques études. Le CIRC classait même la viande rouge comme probablement cancérigène en 2015. Mais il s'agit là d'une confirmation d'une ampleur inédite. Cette étude de cohorte prospective menée pendant 16 ans sur 530 000 personnes âgées de 50 à 71 ans dans 6 états et 2 métropoles aux Etats-Unis avait pour objet d'analyser les différentes causes de mortalité liées à la consommation de viande en général et aux différents types de viande en particulier. Pendant la période, les causes de 128 000 décès ont pu être analysées et regroupées selon le profil de consommation de viande des participants sélectionnés. Ces travaux montrent que les plus gros consommateurs de viande rouge encourent un risque de mortalité prématurée toutes causes confondues de l'ordre de 25 % par rapport aux consommateurs les plus modérés. De façon plus précise, ils sont statistiquement plus enclins à subir des cancers, des maladies cardiaques, de l'insuffisance respiratoire, du diabète ou encore des maladies hépatiques ou rénales. Seule exception, la consommation de viande rouge semble avoir un effet protecteur contre la maladie d'Alzheimer. Les risques semblent indifférenciés selon que l'on consomme de la viande rouge transformée ou non. Pour expliquer ce lien statistique, les chercheurs pointent du doigt le fer contenu dans l'hémoglobine et surtout les nitrates et nitrites présents dans les viandes transformées dont la dégradation dans l'organisme entraîne un stress oxydatif, divers processus inflammatoires ou encore une résistance à l'insuline. Une corrélation statistique supplémentaire a même été précisément identifiée entre le niveau de ces composants dans l'alimentation et le risque de décès prématuré. A contrario, quitte à consommer de la viande, il vaut mieux opter pour des viandes blanches que des viandes rouges puisque les chercheurs du NCI ont évalué à 25 % de risque de mort prématurée en moins toutes causes confondues pour ceux qui consomment le plus de viandes blanches par rapport à ceux qui en consomment le moins. Article rédigé par Georges Simmonds pour RT Flash Caducée | | | |
| Selon une étude publiée dans le British Journal of Cancer, la graisse abdominale, habituellement associée au risque de diabète de type 2 et aux maladies cardiovasculaires, serait également un bon marqueur pour prédire le risque de cancer. Cette graisse, plus profonde que la graisse sous-cutanée, vient entourer les organes tels que le foie, le pancréas et les intestins. La graisse viscérale affecte le fonctionnement hormonal et la résistance du corps à l'insuline et conduire à l'inflammation. C'est pourquoi elle accroît le risque de diabète de type 2 et les maladies cardiaques. Les travaux basés sur 7 études regroupent 43.000 participants âgés de de 54 à 67 ans qui ont été suivis sur 12 ans en moyenne. Parmi eux, 1.656 personnes ont été diagnostiquées avec un cancer lié à l'obésité. Après le tabac, le surpoids et l'obésité sont les facteurs de risque les plus importants impliqués dans 13 types de cancers différents comme le cancer du sein, de l'estomac et du pancréas, soulignent les auteurs de l'étude. Après avoir relevé les mensurations de ces patients (tour de taille, de hanche et Rapport-taille-hanche), les résultats montrent que 11 centimètres de tour de taille supplémentaire augmente le risque de cancer de 13 %. Dans les cas du cancer de l'estomac, 8 centimètres de graisse en plus autour des hanches est associé à un risque augmenté de 15 %. De précédentes études ont montré l'impact de certains aliments ou boissons sur la graisse abdominale. En janvier 2016, ce sont les sodas sucrés qui sont pointés du doigt par une étude de l'American Heart Association pour en augmenter le volume. A l'inverse, consommer des amandes (42 g par jour) au lieu d'un aliment riche en glucides, avec la même teneur en calories, permet de perdre de la graisse abdominale et du tour de taille, toujours selon l'American Heart Association. Article rédigé par Georges Simmonds pour RT Flash BJC | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|