| | Edito L'Homme, le cerveau et le Cosmos.
Il est des moments particulièrement fastes en matière d’avancées scientifiques et le 10 avril dernier, trois découvertes majeures, touchant à trois domaines-clés de la connaissance, nos origines, notre cerveau et notre Univers, ont été annoncées à seulement quelques heures d’intervalle. La première découverte concerne les fossiles datés de 50 000 à plus de 67 000 ans qui ont été trouvés dans la grotte de Callao, sur l’île de Luçon, dans l’archipel des Philippines. Il s’agit de treize fossiles, correspondant à au moins trois individus distincts, et qui formerait une nouvelle espèce dans le foisonnant arbre de l’évolution humaine (Voir Nature). Baptisé Homo luzonensis, cet homme est unique à plus d’un titre et présente un mélange déroutant de caractéristiques anciennes et modernes. Ses phalanges de pied permettent de déduire qu’il possédait des capacités de préhension, liées à une morphologie proches de celle des australopithèques, et qu’on ne retrouve pas chez les autres représentants d’Homo sapiens. Quant à la dentition de ce nouvel hominidé, elle se révèle également très surprenante : les prémolaires, de petite taille, possèdent jusqu’à trois racines, un cas unique dans le genre Homo, mais souvent observé chez les australopithèques. Les molaires sont, pour leur part, très petites et étonnamment modernes avec leurs racines très réduites. Mais d’où pouvait bien venir cet homme de Callao. Il est peu probable qu’il s’agisse d’un descendant des australopithèques, bien plus anciens et dont la présence est restée circonscrite à l’Afrique. En revanche, cet Homo luzonensis pourrait bien descendre d’Homo erectus, présent en Asie entre 1,6 million d’années et 140 000 ans. Cette hypothèse est d’autant plus plausible qu’on sait que cette île de Callao est peuplée par l’homme depuis très longtemps, comme l’atteste la découverte en 2018 d’ossements de rhinocéros vieux de 700 000 ans et portant des traces de découpes par des outils de pierre taillée. Pour le paléontologue Gerrit Van Den Bergh (Université de Wollongong, Australie), qui a participé à la découverte d’une autre espèce insulaire, sur l’île indonésienne de Florès. « La découverte de Luçon est spectaculaire et on se retrouve à nouveau dans une île où des hominidés ont évolué de façon isolée, comme à Florès. Il semble que ces archipels du Sud-Est asiatique soient un laboratoire de l’évolution humaine ». Jean-Jacques Hublin (Institut Max-Planck, Leipzig, Collège de France) avance pour sa part l’hypothèse d’une réapparition de caractères primitifs, toujours présents dans le génome mais non exprimés, dans un contexte insulaire. Pour Florent, paléoanthropologue au Musée de l’Homme, il est égalemen t possible que la "réapparition" de caractéristiques primitives chez Homo luzonensis s'explique par l'endémisme insulaire. Autre enseignement de la découverte de Callao, souligné par Jean-Jacques Hublin comme par son collègue paléoanthropologue Antoine Balzeau (CNRS-MNHN) : « On sort complètement du modèle d’évolution humaine linéaire, où une espèce succède à l’autre, avec la découverte d’humanités variées, originales, plus mobiles et aventureuses qu’on ne l’avait imaginé. » Cette découverte majeure confirme en tout cas la nature foisonnante, réticulaire et non linéaire de la longue évolution humaine qui va d’Homo habilis, il y a 2,8 millions d’années aux premiers Homo sapiens, qui seraient apparus il y plus de 300 000 ans au Maroc. Le scénario qui se dessine à présent montre en effet qu’Homo sapiens a probablement coexisté pendant des dizaines de milliers d’années avec au moins six autres espèces humaines disséminées sur les différents continents : Homo naledi en Afrique ; Neandertal au Levant ainsi qu’en Europe et Denisova en Eurasie, qui ont tous deux laissé des traces dans notre ADN à la suite de croisements ; Homo floresiensis et Homo luzonensis dans le Sud-Est asiatique et les Homo erectus tardifs en Asie. La deuxième découverte majeure a été révélée par une étude publiée par des chercheurs du laboratoire de neurosciences de l’Université de Boston, dirigés par Robert M. G. Reinhart. Dans cette étude, intitulée « Réactivation de la mémoire de travail par synchronisation des circuits cérébraux rythmiques chez les personnes âgées », ces chercheurs montrent qu’ils sont parvenus à rétablir, chez des personnes de plus de 60 ans, une « mémoire de travail » aussi performante que celle de jeunes adultes (Voir Nature Neuroscience). La mémoire de travail est une mémoire de court terme. Elle ne permet pas de mémoriser des souvenirs anciens, mais permet, en revanche, de conserver en mémoire les chiffres d'un numéro de téléphone qu'on est en train de noter. Cette forme de mémoire est associée à deux types d'ondes cérébrales, les ondes gamma et thêta. Les chercheurs Robert Reinhart et John Nguyen ont étudié 42 adultes, âgés de 20 à 29 ans, et 42 autres, âgés de 60 à 76 ans, qu'ils ont répartis en plusieurs groupes et soumis à des exercices impliquant la mémoire de travail (par exemple, identifier les différences entre des images présentées à quelques secondes d'intervalle). Ils ont utilisé un casque à électrodes pour évaluer la façon dont ces ondes interagissent dans ce processus, puis ont stimulé le cerveau de certains des participants en modulant le rythme des ondes. Les chercheurs ont constaté que le groupe soumis à des exercices sollicitant la mémoire de travail obtenait de meilleurs résultats (moyenne de 90 %) que le groupe-témoin (environ 80 % en moyenne). Fait remarquable, le groupe des personnes plus âgées a obtenu, après seulement quelques minutes de stimulation magnétique, des résultats presque identiques à ceux du groupe composé de jeunes. Cette technique est d’autant plus prometteuse qu’elle ne provoque aucune douleur et ne présente que très peu d’effets indésirables. La stimulation électrique a donc des effets positifs sur la mémoire de travail et ces améliorations, qui perdurent plusieurs heures après la fin de la stimulation, semblent liées à de plus fortes interactions entre les ondes thêta et gamma dans le cortex temporal gauche et à une plus forte synchr onisation des ondes thêta entre le lobe temporal gauche et le cortex préfrontal. Ces résultats ont été commentés par deux neurophysiologistes cliniciens de renom, Walter Paulus (Centre médical universitaire de Göttingen) et Zsolt Turi. Selon ces deux chercheurs, « Cette étude est remarquable et ouvre la voie vers de véritables avancées dans le traitement de maladies comme Alzheimer, ou la schizophrénie, et plus généralement dans la prise en charge du déclin cognitif lié à l'âge ». Cette étude confirme donc d’autres recherches effectuées par des chercheurs de la Northwestern University, qui avaient déjà montré en 2014, sur 16 personnes en bonne santé, âgées de 21 à 40 ans, qu’en ciblant l’hippocampe, grâce à la stimulation magnétique transcrânienne de 20 minutes par jour pendant cinq jours, il était possible d’améliorer sensiblement leurs performances de mémorisation (Voir Northwestern). Parallèlement aux voies de recherches chimiques et immunothérapiques pour contrer la maladie d’Alzheimer, il semble donc que cette nouvelle voie utilisant de manière plus ciblée la SMT, technique non invasive, soit réellement très prometteuse pour apporter de nouvelles solutions thérapeutiques efficaces contre une large palette de pathologies neurologiques lourdes, Alzheimer, Parkinson, épilepsie, douleurs neuropathiques, mais également pour traiter de nombreuses affections psychiatriques, comme les TOC ou encore la dépression sévère. Nous en venons à présent à la troisième découverte, sans doute la plus médiatisée et la plus spectaculaire des trois qui a enthousiasmé la communauté scientifique : celle de la première photographie d’un trou noir. On sait maintenant que chaque grande galaxie comporte en son centre un trou noir supermassif. C’est le cas dans la Voie lactée, avec le trou noir Sagittarius, qui représente environ quatre millions de masses solaires. Mais Sagittarius n’est qu’un nain à côté du trou noir monstrueux présenté en grande pompe le 10 avril dernier. Celui-ci, situé au cœur de la galaxie Messier 87, à 55 millions d’années-lumière de notre Terre, est en effet 6,5 milliards de fois plus massif que notre étoile. Quant à son diamètre, il serait de l’ordre de 48 milliards de km, soit neuf fois celui de l’orbite de Pluton… La puissance d’attraction de ce méga-trou noir est si phénoménale qu’il attire toute particule qui passe à moins de 18 milliards de km, soit 122 fois la distance entre la Terre et le Soleil (Voir NASA). Mais, on le sait, rien, pas même la lumière, ne peut sortir d’un trou noir et ce dernier est, par définition non-observable. Pour surmonter cette difficulté, un consortium international de chercheurs baptisé Event Horizon Telescope travaillait depuis plusieurs années en divers points du globe pour parvenir à observer indirectement ces objets parmi les plus fascinants de notre Univers. Mais ce défi était immense car, en dépit de la taille du trou noir visé, aucun instrument astronomique n’a – et de très loin – la résolution nécessaire pour le distinguer. Pour surmonter cet obstacle qui semblait infranchissable, les astrophysiciens ont eu l’idée de combiner les signaux reçus simultanément par plusieurs instruments situés dans différentes régions du monde, ce qui revenait à disposer d’une antenne virtuelle gigantesque dont le diamètre équivaut à la distance entre les deux observatoires les plus éloignés. Pour obtenir la première image de ce trou noir géant de M87, sept radiotélescopes, en plus de celui du Pico Veleta, se sont associés, Etats-Unis au pôle Sud en passant par le Mexique et le Chili. Mais pour pouvoir utiliser cette antenne géante de 9 000 kilomètres de diamètre, il fallait réunir simultanément de nombreuses et draconiennes conditions : d’abord des conditions météorologiques convenables sur tous les sites, ensuite des instruments parfaitement synchronisés, à l’aide de plusieurs horloges atomiques. Enfin, il fallait connaître la distance entre chaque site avec une précision extrême, de l’ordre du millimètre, ce qui supposait de pouvoir calculer et corriger en temps réel l’ensemble des mouvements liés à la tectonique des plaques et à la dérive des continents… Il y a deux ans, en avril 2017, toutes ces conditions ont enfin, et presque miraculeusement, été brièvement réunies et des millions de gigaoctets de données ont pu être enregistrés sur une armée de disques durs. Plusieurs mois de travail ont ensuite été nécessaires pour vérifier, recouper et corriger cette immense quantité de données, puis pour en extraire les informations pertinentes nécessaires à la réalisation de cette image tant attendue. Pour obtenir cette dernière, les informations recueillies ont été confiées à quatre équipes différentes, utilisant trois méthodes d’imagerie distinctes. Ce travail pharaonique a finalement été récompensé avec la présentation en grande pompe, le 10 avril, de la photo historique de ce trou noir, largement reprise par les médias du monde entier. Sur cette image, on peut enfin voir la silhouette de ce trou noir, qui apparaît par contraste sur le fond brillant que constitue le disque d’accrétion, composé de matière surchauffée qui tourne autour de lui. Cette photo, sur laquelle on peut voir un cercle orangé un peu flou, sur fond noir, n’a rien de très spectaculaire. Pourtant, elle représente bel et bien une incroyable prouesse technologique et une avancée majeure dans la connaissance de notre Univers. Ce cliché confirme de manière éclatante l’existence des trous noirs qui, jusqu’à présent, n’avaient pu être mis en évidence que de manière indirecte, notamment par le biais des ondes gravitationnelles qu’ils émettaient. Cette première image d’un trou noir confirme également une nouvelle fois la théorie de la relativité générale d’Albert Einstein qui, il y a plus d’un siècle, a permis d’expliquer le rôle-clé de la force gravitationnelle (l’une des quatre interactions fondamentales de l’Univers) dans la structure de l 8217;espace-temps et l’évolution du Cosmos. Sur un plan beaucoup plus pratique, les recherches nécessaires à l’obtention de cette photo vont également avoir des retombées technologiques et industrielles considérables, en permettant, grâce aux nouveaux outils d’analyse et d’observation développés d’observer et de détecter des objets qui jusque-là étaient invisibles, comme par exemple des exoplanètes situées dans de lointaines systèmes solaires… En dissipant de nouveaux mystères sur ses lointaines origines, sur le fascinant fonctionnement de son cerveau et sur la nature du Cosmos qui l’entoure, l’homme poursuit inlassablement son destin : celui de découvrir et de comprendre la beauté, l’harmonie et la profonde unité des lois qui, de l’infiniment petit à l’infiniment grand, en passant par le vivant, façonnent le réel et guident l’évolution de notre Univers. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : tregouet@gmail.com | |
| | Information et Communication | |
| | | Des scientifiques du Princeton Plasma Physics Laboratory (PPPL) et de l’Université de Princeton ont commencé à appliquer pour la première fois l’apprentissage profond (deep learning) - une nouvelle forme très puissante d’apprentissage automatique - pour prévoir les perturbations soudaines qui peuvent arrêter les réactions de fusion et endommager les tokamaks (les chambres en forme de donuts) qui contiennent les réactions. « Cette recherche ouvre un nouveau chapitre prometteur dans l’effort visant à apporter une énergie illimitée à la Terre », a déclaré Steve Cowley, directeur du PPPL, au sujet des résultats, publiés dans la revue Nature. « L’intelligence artificielle explose à travers les sciences et maintenant, elle commence à contribuer à la quête mondiale de la fusion nucléaire ». La fusion nucléaire, qui anime le Soleil et les étoiles, consiste en la fusion d’éléments sous forme de plasma - l’état chaud et chargé de la matière, composé d’électrons libres et de noyaux atomiques - qui génère de l’énergie. Les scientifiques cherchent à reproduire la fusion sur Terre pour obtenir un approvisionnement abondant en énergie pour la production d’électricité. Pour démontrer la capacité de l’apprentissage automatique profond à prévoir les perturbations au sein d’un tokamak - la perte soudaine de confinement des particules plasmatiques et de l’énergie - l’accès à d’énormes bases de données fournies par deux grandes installations de fusion : la DIII-D National Fusion Facility que General Atomics exploite pour le DOE en Californie (la plus grande installation aux États-Unis), et le Joint European Torus (JET) au Royaume-Uni, la plus grande installation (tokamak) au monde, gérée par EUROfusion, le Consortium européen pour le développement de l’énergie de fusion. Le soutien des scientifiques du JET et du DIII-D a été essentiel pour ces travaux. Les vastes bases de données ont permis de prévoir de façon fiable les perturbations dans les tokamaks autres que ceux sur lesquels le système a été formé - dans ce cas-ci, du “petit” tokamak DIII-D au grand JET. Cette réalisation est de bon augure pour la prévision de perturbations sur ITER, un tokamak beaucoup plus grand et plus puissant qui devra appliquer les capacités acquises dans les installations de fusion actuelles. Le code d’apprentissage profond, appelé Fusion Recurrent Neural Network (FRNN), ouvre également des voies possibles pour contrôler et prédire les perturbations. « L’intelligence artificielle est le domaine le plus intrigant de la croissance scientifique à l’heure actuelle, et l’associer à la science de la fusion est très excitant », a déclaré Bill Tang, physicien principal de recherche au PPPL, co-auteur du document et maître de conférences au Département des sciences astrophysiques de l’Université de Princeton. Il supervise le projet AI. « Nous avons accéléré la capacité de prédire avec une grande précision le défi le plus dangereux pour une énergie de fusion propre ». Article rédigé par Georges Simmonds pour RT Flash Science Daily | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | La start-up TwinswHeel a conçu un robot chargé d'accompagner un client lorsqu’il fait ses courses dans les rayons d’un commerce, puis jusqu’à son domicile. Après une première expérimentation menée au centre commercial Italie Deux en avril 2018, ce robot a donc de nouveau arpenté le 13e arrondissement de la capitale, cette fois dans le magasin Franprix situé au 133 rue Nationale. Depuis le 17 avril 2019, l’enseigne du Groupe Casino teste en conditions réelles l’assistant de courses auprès de deux clients dans le "Quartier d’Innovation urbaine Paris Rive Gauche", quartier privilégié par la Ville de Paris ainsi que quinze partenaires publics et privés pour l’expérimentation d’innovations en milieu urbain, sur une zone définie par Urban Lab. "Il s'agit du premier test in situ d'un service qui va faciliter la vie des urbains", a précisé Jean-Paul Mochet, Directeur Général de Franprix, qui a assisté à cette présentation aux côtés de François Alarcon, Directeur de l’innovation, et de Jérôme Coumet, maire du XIIIe arrondissement. "Ce que nous faisons aujourd'hui chez Franprix avec ce service innovant, social, écologique et gratuit, c'est du service public", ajoute-t-il. L'enseigne vise notamment les personnes à mobilité réduite ou âgées, pour lesquelles la charge des courses est un frein important. L'utilisateur appuie sur la fonction "Follow me" qui permet au droïde de s'appairer à la personne par reconnaissance visuelle et est capable de le suivre en magasin en évitant les obstacles. Le droïde s’adapte à la démarche de l’utilisateur grâce à une association de capteurs et de caméras qui permettent de le retrouver sur de grandes distances. Il repère son chemin en associant différentes informations GPS, trafic routier et appairage sur le smartphone de l’utilisateur. Le droïde aide le client à transporter ses courses en le suivant dans les rayons du magasin, puis jusqu’à son domicile, "dans un premier temps accompagnés d’un employé du magasin", précise l'enseigne. Pour des raisons de réglementation, le robot ne peut en effet pas retourner seul au point de départ. Article rédigé par Georges Simmonds pour RT Flash L'Usine Digitale | | ^ Haut | |
|
| | | Des chercheurs de l’Université de Californie à Los Angeles (UCLA), ont mis au point un nanogénérateur capable de produire de l’électricité grâce aux chutes de neige. Miniature, fin et peu coûteux, le dispositif s’avère également aussi flexible qu’une simple feuille de plastique. Ce générateur utilise de manière remarquable l'effet triboélectrique, lié à l'échange d'énergie au cours d'un frottement entre deux matériaux. Il s'agit d'une forme d’électrification par contact qui s’apparente à la célèbre « électricité statique ». « Cette énergie résulte de l’interaction entre un matériau qui capture des électrons et un autre qui en cède. On sépare les charges et l’on crée ainsi de l’électricité, au fond, à partir de rien », explique dans un communiqué Richard Kaner, chercheur spécialiste des matériaux innovants à UCLA. Un principe que le scientifique et ses collègues ont ainsi eu l’idée d’explorer avec une matière naturelle et saisonnièrement abondante sous certaines latitudes : la neige. « La neige est déjà chargée positivement, nous nous sommes donc demandés pourquoi on n’amènerait pas un autre matériau de charge opposée afin d’extraire cette charge et produire de l’électricité », retrace le co-auteur des travaux Maher El-Kady, biochimiste à UCLA. Restait toutefois à trouver le matériau adéquat. « Après avoir testé un grand nombre de matériaux parmi lesquels le papier d’aluminium et le Téflon, nous avons découvert que le silicone produisait plus de charges que n’importe quel autre matériau », révèle Maher El-Kady. Une découverte clé qui a permis de conférer au générateur des performances optimales, comme le souligne le chercheur : « Même si la neige aime céder des électrons, les performances du dispositif dépendent de l’efficacité avec laquelle l’autre matériau peut extraire ces électrons ». Finalement, c’est grâce à l’impression 3D que les chercheurs ont pu donner naissance à un dispositif fonctionnel, composé d’une couche de silicone et d’une électrode permettant de récupérer les charges. Baptisé « snow TENG », pour snow-based triboelectric nanogenerator, le dispositif augure de multiples applications. Première d’entre elles, celle de l’amélioration des panneaux solaires. Improductifs lorsqu’ils sont couverts de neige, ils pourraient retrouver une partie de leurs capacités grâce à l’intégration dans leur structure du dispositif triboélectrique activé par la neige. Autre possibilité : utiliser le nanogénérateur en tant que capteur. Un rôle qu’il pourrait notamment revêtir dans le domaine du suivi des performances sportives, en permettant de capter les mouvements des athlètes dans des disciplines telles que le ski, le surf ou encore l’alpinisme. Enfin, c’est aussi sur la neige elle-même que le dispositif pourrait apporter des informations, comme l’entrevoit Richard Kaner : « C’est un appareil très intelligent : une station météo qui peut nous indiquer la quantité de neige tombée, sa direction ainsi que celle du vent, et sa vitesse ». Le tout en s’affranchissant des limites imposées par les piles et les batteries, le nanogénérateur « fournissant sa propre énergie », comme le souligne finalement le chercheur. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| Vattenfall et Siemens Gamesa se sont associés pour le déploiement de la nouvelle éolienne de 10 MW en Mer du Nord. 76 éoliennes seront installées pour le projet Hollandse Kust Zuid 1 & 2, premier parc éolien en mer au monde sans subvention, situé au large des côtes néerlandaises. Si Vattenfall remporte l’appel d’offres pour le projet Hollandse Kust Zuid 3 & 4 (en cours), les éoliennes pourront aussi être installées pour ce parc, soit un total de 152 éoliennes pour les deux projets. « C’est un développement extrêmement important à nos yeux », a déclaré Gunnar Groebler, Vice-Président et Directeur de la Division Eolien de Vattenfall. « Nous sommes fiers de faire équipe avec Siemens Gamesa. Ils ont été des partenaires fiables et solides dans différents projets et nous sommes très heureux d’étendre notre collaboration au projet Hollandse Kust Zuid ». Avec 30 % de production d’énergie annuelle en plus que la précédente, cette éolienne de dernière génération représente un progrès considérable pour le développement de la filière éolienne en mer. Chaque pale fait environ la taille d’un terrain de football : 94 mètres. Avec une puissance unitaire de 10 MW, ces éoliennes permettront au parc Hollandse Kust Zuid d’alimenter en électricité environ 1,5 million de foyers chaque année, soit environ 10 000 foyers par machine. « Grâce à l’augmentation de la capacité unitaire, nous sommes en mesure de diminuer le nombre d’éoliennes dans le parc et de réduire ainsi l’impact sur l’environnement. La taille et la plus grande disponibilité de ces éoliennes sont des avantages majeurs pour maximiser la production d’électricité, un facteur clé pour un projet sans subvention. Avoir moins d’éoliennes à installer, c’est aussi réduire les coûts d’installation et les risques associés », a déclaré Gunnar Groebler, Directeur de la Division Eolien de Vattenfall. En septembre 2018, Vattenfall recevait le permis pour la construction de Hollandse Kust Zuid 1 & 2, le premier parc éolien en mer sans subvention. Les travaux préparatoires sont en cours et plusieurs études ont commencé sur le site en mer du Nord. Il est prévu que le parc soit mis en service en 2023. Le 15 mars 2019, l’alliance composée de Vattenfall, la Caisse des Dépôts et WPD, déposait son dossier à la CRE en vue de réaliser le futur parc éolien en mer au large de Dunkerque. Mobilisée depuis plus de 2 ans, l’alliance a participé à la phase de dialogue avec l’Etat, a mené des études complémentaires sur le site, et a conduit plus de 120 réunions avec le territoire afin de proposer le meilleur projet pour le dunkerquois, baptisé Projet Eliade. Avec 13 parcs éoliens en mer en exploitation en Europe et un retour d’expérience unique du développement de 5 des 6 premiers parcs français, l’alliance est la plus expérimentée de cet appel d’offres. L’offre soumise répond à la fois aux attentes du gouvernement concernant la compétitivité de la filière en France ainsi qu’à celles du territoire concernant les retombées socio-économiques locales et la bonne intégration du Projet Eliade dans le respect de l’environnement, des usagers de la mer, de la population et du tourisme. « Tout comme nous l’avons fait pour Hollandse Kust Zuid, nous nous sommes attachés à construire une offre compétitive, mais aussi, crédible et réaliste, qui, je l’espère, se concrétisera également. Celle-ci s’appuie sur un retour d’expérience unique en France et en Europe ainsi que sur nos relations de long terme avec l’ensemble des fournisseurs. Le Projet Eliade, c’est la preuve que l’on peut faire rimer économie et écologie, pour la France et pour le dunkerquois » a déclaré Yara Chakhtoura, Directeur Général de Vattenfall Éolien. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | ^ Haut | |
|
| | | Selon la théorie communément admise, l'Univers s'est créé il y a 13,8 milliards d'années sous l'effet du Big Bang. Il était alors rempli d'un gaz uniforme composé d'éléments légers comme l'hydrogène et l'hélium. Toujours d'après la théorie, environ 100 000 années plus tard, quand les températures se sont mises à chuter, la molécule HeH+ s'est formée à partir d'un atome d'hélium et d'un proton. Un moment emblématique qui marque « le premier pas d'une longue évolution qui s'est poursuivie pendant des milliards d'années, donnant au final des molécules aussi complexes que l'ADN », explique David Neufeld, de l'Université Johns Hopkins aux États-Unis, coauteur de l'étude publiée dans la revue Nature. Bien que l'existence HeH+ ait été démontrée en laboratoire dès 1925, jamais la molécule n'avait été détectée dans l'espace. Et pour cause, avec le temps, cette dernière a disparu de notre environnement, transformée en molécules d'hydrogène et en atomes d'hélium. « L'absence de preuve définitive de son existence dans l'espace interstellaire plaçait les astronomes devant un vrai dilemme », explique dans un communiqué Rolf Güsten du Max Planck Institute for Radio Astronomy en Allemagne, auteur principal de l'étude. La molécule a finalement été débusquée dans la jeune nébuleuse planétaire NGC 7027 — dont les conditions font écho à celles de l'Univers primitif. Article rédigé par Georges Simmonds pour RT Flash TVAN | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Le Centre National de Cancérologie du Japon (NCC) vient de publier son rapport annuel portant sur le taux de survie global à 10 ans en matière de cancers, auprès de 70 285 patients âgés de 5 à 94 ans et soignés entre 2002 et 2005 dans 20 hôpitaux japonais. Cette étude précise également le taux de survie à 5 ans auprès de 140 675 patients soignés entre 2008 et 2010 dans 32 établissements consultés. Cette étude détaillée nous apprend que, comme cela est le cas dans tous les pays développés, l'incidence des cancers (nombre de nouveaux cas chaque année) a doublé depuis 40 ans, en raison principalement du vieillissement. La mortalité n'a cessé de diminuer. Dans le même temps, le taux de survie à 10 ans atteint 56,3 % au Japon, augmentant de 0,8 point par rapport à l’année dernière. Le taux de survie à 5 ans est de 67,9 %, augmentant de 0,3 point. Cette hausse, constante depuis les années 90, reflète les progrès dans les technologies de détection précoce et dans les traitements contre le cancer. En examinant plus précisément les données et en les regroupant selon le stade auquel le cancer a été détecté (stade 1 à 4), l’équipe a montré que le taux de survie à 10 ans dépassait 90 % pour 6 des 18 types de cancer lorsque celui-ci était détecté au stade 1 (ou stade précoce). Cela inclut les cancers du sein, des intestins, et le cancer colorectal. Cependant, détecté au stade 4, le taux de survie à 10 ans du cancer du sein n'est que de 15,9 %. L’équipe a ainsi souligné qu’il était important d’avoir un suivi médical régulier, d’une part, et de mettre en place un système de détection précoce des cancers, d’autre part. Selon cette étude, ces taux de survie devraient continuer d’augmenter dans les prochaines années, grâce à la fois à une détection plus précoce et à de nouvelles thérapies. Article rédigé par Georges Simmonds pour RT Flash The Japan Times | | | |
| Des chercheurs japonais de l’Université de Kobe, dirigés par le Professeur Kenjiro Kimura, ont présenté une nouvelle technique très prometteuse de dépistage du cancer du sein reposant sur les micro-ondes. Cette nouvelle méthode est à la fois plus précise, moins douloureuse pour les patientes, et plus sensible que la technique conventionnelle de mammographie aux rayons X. Pour réaliser cette mammographie, un appareil émettant des micro-ondes est passé sur le sein et fournit en temps réel une image 3D de tumeurs jusqu’à 0,5mm. Les micro-ondes émises, d’une puissance 1000 fois inférieure à celles qu’émet un téléphone portable, traversent la graisse et les glandes mammaires mais sont réfléchies par les tumeurs. Si cette propriété des micro-ondes est connue depuis longtemps, les applications concrètes en découlant n’ont été possibles qu’à partir de 2012, lorsque le Professeur Kimura a trouvé la première formule mathématique permettant la reconstruction d’une forme à partir des ondes réfléchies. En effet, lorsqu’elles rencontrent un obstacle, les ondes sont diffusées dans toutes les directions, il est alors difficile de retrouver la forme de l’obstacle. A l’origine, le Professeur Kimura a mis au point cette technique pour détecter d’éventuelles fissures dans les tunnels, et elle est aujourd’hui applicable à l’imagerie médicale. Des essais cliniques sont actuellement en cours dans 4 centres médicaux de la préfecture de Hyogo. Au Japon, le cancer du sein est le cancer féminin le plus fréquent et cause 14 000 décès par an. Article rédigé par Georges Simmonds pour RT Flash The Asahi Shimbun | | | |
| Une étude réalisée par des chercheurs de l'Université Columbia va contribuer à prédire le cancer du côlon agressif et identifier une nouvelle cible thérapeutique : leurs travaux, présentés dans les EMBO Reports, décryptent comment Fusobacterium nucleatum, une bactérie buccale courante, par ailleurs impliquée dans la carie dentaire, booste la croissance du cancer du côlon. La présence de la bactérie dans la plaque dentaire peut également expliquer pourquoi certains cancers évoluent beaucoup plus rapidement que d'autres. Le cancer du côlon, la deuxième cause de décès par cancer, est causé par des mutations génétiques qui s’accumulent généralement au cours d’une décennie. « Mais ces mutations ne sont qu'une partie de l'histoire », précise l’auteur principal, le Docteur Yiping W. Han, professeur de sciences microbiennes au Collège de médecine dentaire de l'Université Columbia. « D'autres facteurs, y compris les microbes, peuvent également jouer un rôle clé ». Un tiers des cancers colorectaux sont associés à F. nucleatum, démontrent les scientifiques. Ces cas sont souvent les plus agressifs : la bactérie fabrique une molécule appelée FadA, une adhésine, qui déclenche dans les cellules du côlon, une voie de signalisation impliquée dans plusieurs cancers. Et l'adhésine FadA ne stimule que la croissance des cellules cancéreuses, pas celle des cellules saines. F. nucleatum interagit seulement avec les cellules cancéreuses : les chercheurs identifient ici, dans des cultures cellulaires, que les cellules du côlon non cancéreuses sont dépourvues de protéine annexine A1, qui stimule la croissance du cancer. Ils confirment ensuite in vitro et in vivo chez des souris que la désactivation de l'annexine A1 empêche F. nucleatum de se lier aux cellules cancéreuses, ce qui ralentit leur croissance. Par ailleurs, F. nucleatum augmente la production d'annexine A1, attirant davantage de bactéries. C’est donc comme une boucle de rétroaction positive qui aggrave la progression du cancer. Ainsi, la progression du cancer colorectal est favorisée par deux déclencheurs, les mutations génétiques, et F. nucleatum qui active la voie de signalisation et la croissance tumorale. Une preuve chez les patients : l’étude montre également, chez 466 patients atteints d'un cancer primitif du côlon, que ceux présentant une expression accrue d'annexine A1 ont un pronostic plus sombre, quels que soient le degré et le stade de leur cancer, leur âge et leur sexe. Article rédigé par Georges Simmonds pour RT Flash EMBO Press | | | |
| Le patch à microaiguillespar voie transdermique s'impose progressivement comme nouveau mode d'administration innovant de diverses thérapies. En incorporant les nanoparticules d'argent antibactériennes dans « leurs » microaiguilles solubles, cette équipe de l’Université d'Australie du Sud a mis au point un véhicule très prometteur et très sécure pour les vaccins et les médicaments. Les vaccins constituent la première ligne de défense contre les maladies infectieuses dans le monde. Cependant, les pratiques d’injection non sécuritaires continuent d’exposer des milliards de personnes à des infections et des maladies graves. « De plus, l’injection fait partie des procédures de soins de santé les plus couramment utilisées pour les vaccinations et les soins de santé dans le monde », relève l’auteur principal, le professeur Vasilev, qui ajoute que « jusqu’à 40 % des injections sont administrées avec des seringues et des aiguilles mal stérilisées ». Ces chercheurs ont mis au point des patchs à microaiguilles auto-stérilisantes et donc capables de supprimer la croissance d’agents pathogènes au site d'insertion/injection. Ce dispositif est qualifié comme « révolutionnant la vaccination et l'administration de médicaments ». Les microaiguilles chargées d'argent ont des propriétés antibactériennes intrinsèquement puissantes qui inhibent la croissance des bactéries pathogènes et réduisent les risques d'infection. La démonstration de cette efficacité antibactérienne est apportée via l’exposition aux bactéries associées aux infections cutanées courantes (staphylocoque doré, Staphylococcus epidermis, Escherichia coli et Pseudomonas aeruginosa) : les patchs à microaiguilles parviennent en effet à créer une zone sans bactéries durant 24 heures autour du site d'administration. Les microaiguilles chargées d’argent comprennent un ensemble de 15 x 15 aiguilles de 700 microns de longueur, qui ne percent que la couche supérieure de la peau sans atteindre les nerfs sous-jacents. Le patch est donc indolore à 100 %. Les microaiguilles sont fabriquées à partir d’un polymère sûr, biocompatible et hautement soluble dans l’eau, qui se dissout complètement en une minute après l’application, ne laissant aucun déchet acéré. Article rédigé par Georges Simmonds pour RT Flash Chemical Communications | | | |
| Plusieurs centres de lutte contre le cancer et instituts de recherche français (Inserm, CNRS…) en France et en Suisse, ont réalisé une étude qui montre pour la première fois l’évolution génomique du cancer entre le stade « localisé » d’une tumeur et son stade avancé métastatique. L’étude a porté sur le cancer du sein. Jusqu’à présent, les séquençages génomiques avaient surtout porté sur des tumeurs initiales et localisées. Quelques études préliminaires permettaient toutefois de soupçonner une évolution génomique du cancer lorsque celui-ci se dissémine et que des métastases apparaissent. Cette nouvelle étude multicentrique confirme une telle hypothèse et démontre par conséquent que la génomique d’un cancer localisé n’est pas représentative des cancers du sein les plus avancés. Elle a été menée sur 617 femmes atteintes d’un cancer du sein métastatique. Résultat, souligne le Professeur Fabrice André, oncologue à Gustave Roussy et directeur de recherche Inserm : « Les cancers du sein métastatiques sont le fruit de l’évolution génomique. Ils sont plus complexes génétiquement que la tumeur primitive, comportent plus de mutations et de clones. Nous avons découvert deux grands processus responsables de cette évolution : l’activation d’une des protéines APOBEC et un défaut accru de réparation de l’ADN. De plus, nous avons identifi&eac ute; une dizaine de nouvelles cibles thérapeutiques plus fréquentes dans les métastases et activables par des médicaments existants ou à venir ». APOBEC est une protéine qui joue un rôle dans les infections virales ; elle est responsable de mutations génétiques. Dans le cancer, cette protéine s’active et provoque l’évolution génomique tumorale. Plus cette protéine est active, plus le cancer métastatique évolue rapidement. APOBEC est donc l’un des moteurs de « l’emballement métastatique ». La tumeur acquiert par ailleurs des mutations qui empêchent la réparation de l’ADN. Le génome tumoral, devenu « hypermuté », entraîne l’apparition de dix altérations génomiques considérées comme cibles thérapeutiques potentielles, dont certaines font actuellement l’objet d’un développement de nouveaux médicaments. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs du MIT, dirigés par Angela Belcher, professeur d'ingénierie biologique au MIT et membre de l'Institut Koch pour la recherche sur le cancer ont mis au point une technologie proche de l’infrarouge pour détecter des sondes fluorescentes au plus profond des tissus vivants. Une technique diagnostique qui va permettre de mieux traiter de nombreux types de cancer, en les traitant dès le stade précoce. Il s’agit d’un système d’imagerie, nommé « DOLPHIN » car il détecte « au plus profond » des tumeurs minuscules, de quelques centaines de cellules seulement. Plus précisément, DOLPHIN signifie « Detection of Optically Luminescent Probes using Hyperspectral and diffuse Imaging in Near-infrared ». Ce système d'imagerie, basé sur la lumière proche de l'infrarouge, se montre capable ici de détecter une sonde fluorescente de 0,1 millimètre dans le tube digestif d'une souris vivante ou un signal à une profondeur de tissu de 8 centimètres. C’est beaucoup plus que toutes les techniques d'imagerie existantes. Et les applications sont nombreuses, en particulier dans le diagno stic précoce des cancers de l'ovaire et autres cancers difficiles à détecter avant le stade avancé. Les méthodes existantes d'imagerie des tumeurs présentent toutes des limites de détection qui réduisent les chances d’un diagnostic précoce. La plupart doivent faire le compromis entre la résolution et la profondeur de l'image, et aucune de ces techniques d'imagerie n’est capable d’enregistrer une image d'une profondeur supérieure à environ 3 centimètres dans les tissus. Les scanners couramment utilisés, tels que la tomographie par rayons X (CT) et l'imagerie par résonance magnétique (IRM), permettent une image à travers tout le corps mais ne savent pas identifier de manière fiable les tumeurs, avant qu'elles atteignent environ 1 centimètre. Les chercheurs souhaitaient développer une technologie capable d'imager de très petits groupes de cellules au fond des tissus et ce, sans aucune sorte de marquage radioactif. La lumière proche infrarouge, dont les longueurs d'onde sont comprises entre 900 et 1700 nanomètres, convient parfaitement à l'imagerie tissulaire car elle ne se disperse pas autant lorsqu'elle rencontre « un objet », ce qui lui permet de pénétrer plus profondément dans les tissus. Ici, les chercheurs l’utilisent avec une approche appelée « imagerie hyperspectrale », qui permet une imagerie simultanée via plusieurs longueurs d'onde de la lumière. Les chercheurs testent leur système avec toute une série de sondes électroluminescentes fluorescentes situées dans le proche infrarouge, principalement des nanoparticules de fluorure de yttrium et de sodium contenant des éléments de terres rares, tels que l'erbium, l'holmium ou le praséodyme, qui ont été ajoutés via un processus appelé dopage. Selon le choix de l'élément dopant, chacune de ces particules émet une lumière fluorescente proche infrarouge, mais de longueurs d'onde différentes. À l'aide d’algorithmes, les chercheurs peuvent analyser les données de l'analyse hyperspectrale pour identifier les sources de lumière fluorescente de différentes longueurs d'onde, ce qui leur permet de déterminer l'emplacement d'une sonde particulière. En approfondissant l'analyse de la lumière provenant de bandes de longueurs d'ondes plus étroites dans tout le spectre proche de l'infrarouge, les chercheurs peuvent également déterminer la profondeur à laquelle se trouve une sonde. Ils parviennent ici à suivre un groupe de nanoparticules fluorescentes de 0,1 millimètre de diamètre, avalé puis transporté dans le tube digestif d'une souris vivante. Ces sondes pourraient être modifiées pour cibler et marquer par fluorescence des cellules cancéreuses spécifiques. « En pratique, cette technique permettra de dépister de manière non invasive une tumeur marquée par fluorescence de 0,1 millimètre, ce qui correspond à un groupe d'environ quelques centaines de cellules. À notre connaissance, personne n'a jamais été en mesure "de le faire" », relèvent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| "Si j'avais su...", ou "si j'avais osé..." : des réflexions qui traversent nos esprits et qui se rapportent à des décisions non prises alors qu'elles faisaient partie de choix dont nous étions conscients. Mais nous avions écarté ces options qui nous semblaient sur le moment indisponibles. C'est ce que l'on appelle la "pensée contrefactuelle". Des scientifiques de l'Université de Chicago (Etats-Unis) viennent d'établir, à partir d'expériences réalisées sur des primates, qu'une méthode par ultrasons non-invasive peut agir sur une région frontale du cerveau dite "cortex cingulaire antérieur" en régulant cette pensée contrefactuelle. Leurs travaux ont donc mis en lumière la façon dont l'activité du cortex cingulaire influence la prise de décisions. Si cette partie du cerveau ne fonctionne pas correctement, cela peut empêcher un individu de choisir la meilleure option, non seulement sur le moment mais même plus tard lorsqu'elle devient plus adaptée à la situation. Les experts estiment que de tels dysfonctionnements du cerveau peuvent expliquer pourquoi les personnes atteintes de certaines maladies psychiatriques restent prises au piège d'habitudes inutiles. L'équipe a étudié comment les singes "conservaient la valeur des choix contrefactuels, choix qui ne pouvaient être pris dans l'instant mais qui pourraient l'être à l'avenir". Des travaux qui ont montré, grâce à des balayages IRM du cerveau de ces singes, qu'une stimulation par des ultrasons non invasive confirmait le rôle du cortex cingulaire antérieur en perturbant leur pensée contrefactuelle. "La prochaine étape consiste à mener d'autres essais sur l'homme, mais le potentiel est très excitant", assurent les scientifiques. Et pour cause : pouvoir réguler la pensée contrefactuelle ouvre des perspectives enthousiasmantes. Celle-ci peut en effet intervenir dans notre fonctionnement cérébral de façon négative. C'est à travers cette pensée contrefactuelle que notre esprit met en avant des erreurs passées, voie idéale pour cultiver la culpabilité ou l'auto-flagellation. "Quand on ressasse ce type de pensées, on finit par penser que le monde entier est notre ennemi", expliquait en 2009 le Docteur Catherine Solano. Article rédigé par Georges Simmonds pour RT Flash Pourquoi Docteur | | | |
| Le génome humain n'a pas fini de nous surprendre. Bien que notre génome soit constitué d’environ trois milliards d’unités (les paires de base), nombre d’entre elles ne semblent pas appartenir à des gènes en particulier. Ces séquences ont donc été qualifiées d’inutiles et appelées littéralement "ADN poubelle". Toutefois, il s’avère que l’ADN poubelle joue un rôle essentiel dans la coordination et la régulation des fonctions des gènes codants. Par exemple, certaines séquences d’ADN se déplacent dans le génome et influencent l’expression génique. Ces unités mobiles sont appelées "éléments transposables". On estime leur nombre à plus de 4,5 millions dans un seul génome. Les éléments transposables contiennent souvent des séquences servant de sites de liaison pour des facteurs de transcription, c’est-à-dire des protéines qui régulent le taux de transcription d’ADN en ARN, réalisant ainsi la première étape de l’expression génique. En se déplaçant dans l’ensemble du génome, les éléments transposables renouvellent les sites de liaison disponibles pour les facteurs de transcription, ce qui fait d’eux un moteur de l’évolution du génome. Mais en même temps, ils peuvent également se révéler dangereux pour leur hôte : ils sont génotoxiques, c’est-à-dire qu’ils peuvent entraîner des mutations capables de rendre invalides les gènes, ce qui peut causer de graves affections et même la mort. La question qui se pose est la suivante : comment le potentiel génotoxique des éléments transposables est-il gardé sous contrôle pour qu’il ne compromette pas leur capacité à réguler le génome ? Désormais, des scientifiques du laboratoire de Didier Trono de l’EPFL ( École Polytechnique Fédérale de Lausanne) ont découvert qu’une famille de protéines connues sous le nom de KZFP (pour Krüppel-associated box-containing zinc finger proteins, des protéines KRAB à doigts de zinc) jouent un rôle clé de facilitateurs en apprivoisant des séquences de régulation intégrées dans les éléments transposables eux-mêmes. Lorsque le génome de l’embryon humain est activé juste après que l’ovule est fécondé par un spermatozoïde, les éléments transposables sont parmi les premières séquences exprimées. Les chercheurs ont découvert que les KZFP maîtrisent rapidement ces éléments, réduisant leur impact transcriptionnel pendant les toutes premières étapes de l’embryogenèse précoce. Cela permet d’utiliser ensuite les éléments transposables plus tard lors du développement ainsi que dans les tissus adultes. Ainsi, les KZFP jouent un rôle clé dans la manière dont le génome humain est régulé, en facilitant l’intégration de séquences de contrôle à base d’éléments transposables dans des réseaux transcriptionnels. « Nos résultats montrent comment une famille de protéines longtemps considérées comme une curiosité de la nature font d’ennemis des amis, » explique Didier Trono. « Ils révèlent que les KZFP ne réduisent pas simplement les éléments transposables au silence éternel, mais apprivoisent leur impressionnant potentiel de régulation au profit de notre génome. Nos découvertes impliquent cependant aussi que des anomalies lors de la réalisation de ce processus compromettent irrémédiablement les premières étapes du développement embryonnaire humain. » Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Et si votre rythme cardiaque pouvait prédire votre espérance de vie ? C’est ce que suggère une étude suédoise qui conclut que les hommes de plus de 50 ans, dont le coeur bat à plus de 75 pulsations par minute au repos, auraient plus de risques de mourir prématurément. Chez un adulte en bonne santé, la fréquence cardiaque au repos se situe entre 50 et 85 pulsations par minute. Pour une personne âgée, elle est comprise entre 60 et 70 bpm. Celle-ci dépend toutefois de nombreux autres facteurs que l’âge, tels que le sexe, le poids, la prise de médicaments ou encore la condition physique. Des chercheurs ont voulu savoir si une fréquence cardiaque trop élevée pourrait avoir un impact sur le risque de développer une maladie cardiovasculaire, ou de mourir prématurément. Pour ce faire, ils ont étudié 789 hommes nés en 1943 à Göteborg (Suède), sur une période de 21 ans. En 1993, les sujets ont rempli un questionnaire sur leurs modes de vie et leur santé, et ont passé un examen médical complet, incluant la mesure de leur fréquence cardiaque au repos. Cette fréquence a été mesurée à nouveau en 2003, puis en 2014. Pendant l’étude, environ 15 % des 789 hommes sont décédés avant leur 71ème anniversaire, la même proportion a développé une maladie coronarienne, et près de 28 % ont été diagnostiqués d’une maladie cardiovasculaire. Ces résultats ont permis aux chercheurs de faire plusieurs constats. Ainsi, une hausse du rythme cardiaque chez les quinquagénaires augmenterait le risque de maladies cardiovasculaires. A l’inverse, les hommes ayant une fréquence cardiaque stable entre 50 et 60 ans, auraient 44 % moins de chances de développer ce type de maladie dans la décennie suivante. Les scientifiques ont aussi établi qu’un rythme cardiaque supérieur à 75 bpm doublerait le risque de maladies cardiaques, par rapport à une fréquence de 55 bpm ou moins. Plusieurs facteurs peuvent expliquer ces résultats. En effet, les hommes dont le rythme cardiaque au repos était supérieur à 55 bpm en 1993 étaient plus susceptibles d’avoir un mode de vie sédentaire, de fumer et d’être stressés que les autres. Certains d’entre eux présentaient aussi d’autres facteurs de risques de maladies cardiovasculaires (hypertension, surpoids…). Dans la mesure où le champ de recherche de l’étude est limité aux hommes de 50 ans et plus, elle mériterait d’être approfondie, afin de voir si les résultats se confirment sur une population féminine et/ou plus jeune. Toutefois, elle montre que surveiller les variations de sa fréquence cardiaque pourrait être un moyen efficace d’anticiper les risques de maladies cardiovasculaires dans le futur. Et ainsi d’estimer ses chances de vivre plus ou moins longtemps. Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| Des chercheurs de l’Université de Yale, aux États-Unis, ont réussi à relancer la circulation sanguine et une activité synaptique (échange entre neurones) dans des cerveaux de porcs 4h après leur décapitation. Bien que ces animaux n’aient à aucun moment retrouvé un état proche de la conscience, cette découverte ouvre des perspectives extraordinaires quant à l’évolution des soins pour des lésions cérébrales. Pour réussir à réanimer les cerveaux de porcs, les chercheurs ont utilisé une solution anticoagulante unique chargée d’agents pharmacologiques et d’oxygène, baptisée BrainEX, qui a servi de sang artificiel. Ils l’ont ensuite filtrée et pompée à travers le système sanguin des cerveaux, et c’est alors qu’ils ont commencé à voir une circulation renouvelée, une réponse métabolique, et même une activité synaptique spontanée. En revanche, à aucun moment les chercheurs n’ont pu constater un niveau d’activité cérébrale proche de ce qui constituerait ne serait-ce qu’une prise partielle de conscience. Cela se serait caractérisé par l’émission d’ondes cérébrales alpha et bêta dans un intervalle de 8 à 30 Hz. Si cela s’était produit, les chercheurs avaient prévu de diffuser des anesthésiques lourds et de geler très rapidement les têtes pour stopper toute activité cellulaire. Selon le professeur Hank Greely de l’Université de Stanford, les résultats de cette recherche bouleversent nos préjugés concernant la mort cérébrale. Elle prouverait que notre conscience ne disparaît pas totalement dans les minutes qui suivent la mort cérébrale et que restaurer la circulation sanguine aussi vite que possible ne serait pas la seule façon d’éviter cette dernière. En effet, si on réussit à réanimer partiellement les cerveaux de porcs 4h après leur décès, c’est qu’ils ne seraient pas totalement éteints. Cette expérience soulève forcément des questions éthiques, mais en tout cas, elle a été réalisée dans le respect des directives actuelles concernant le bien-être animal. Selon les protocoles de l’Université de Yale, l’équipe a utilisé des têtes de porcs qui ont été prélevées après le passage à l’abattoir d’animaux élevés pour nourrir les hommes. De plus, ils ont été abattus à cet effet avant le début de l’expérience, dans le respect d’une loi de 1966 sur le bien-être animal. Cette expérience pourrait bien soulever la communauté des défenseurs des animaux, pour autant, ses applications pourraient avoir des retombées extrêmement positives pour soigner les hommes à l’avenir. BrainEX pourrait notamment être utilisée afin de préserver les fonctions cérébrales des individus à la suite de traumatismes crâniens ou d’infections catastrophiques. Reste à savoir ce que l’on est prêt à tolérer pour faire évoluer la médecine. Article rédigé par Georges Simmonds pour RT Flash Siècle Digital | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|