| | | | | | | Edition du 20 Juillet 2018 |
| |
|
| Edito Quels seront les nouveaux besoins en compétences d'ici à 2030 ?
Il y a trois ans, en juin 2015, on se souvient que le cabinet de conseil Roland Berger avait publié une étude largement médiatisée qui prévoyait que 3 millions d’emplois - principalement ceux à faible niveau de qualification - pourraient être détruits en France d’ici 2025 par la numérisation de l’économie. Il y a un an et demi, fin 2016, le réputé cabinet Forrester publiait une étude selon laquelle il prévoyait que l’intelligence artificielle et les nouveaux outils numériques risquaient de supprimer 6 % des emplois aux États-Unis d’ici 2021. Les premiers emplois menacés seraient les métiers du transport, de l’industrie et certains services à faibles niveaux de compétences. Pour étayer ses thèses, Forrester rappelait que 45 % des adultes interrogés aux Etats-Unis ou au Canada déclaraient déjà avoir recours à des assistants virtuels comme Alexa (Amazon), Cortana (Microsoft), Siri (Apple) ou Google Now (Google) ainsi que des chatbots. Mais en janvier 2017, le Conseil d’orientation pour l’emploi publiait à son tour un long rapport qui prenait le contrepied de ces prévisions alarmistes et prévoyait que seuls 10 % des emplois en France, soit 1,5 million d’emplois, seraient menacés par l’automatisation. Cette étude prévoyait toutefois que la moitié des emplois existants étaient susceptibles d'évoluer, dans leur contenu, de façon significative à très importante. Le 24 mai dernier, le cabinet McKinsey a publié à son tour une étude baptisée "The Future of Workplace". Ce travail très riche d’enseignements met en lumière les changements à venir en matière de besoins en compétences. Le cabinet de conseil a passé au crible 800 activités et 2000 tâches pour se focaliser sur 25 compétences et tenter de mieux cerner le volume d’heures de travail qu’elles représentent (Voir Mc Kinsey). Le grand enseignement de ce remarquable travail, on ne s’en étonnera guère, est que l’automatisation et l’intelligence artificielle vont sensiblement accélérer la transformation des besoins en compétences. Ces derniers devraient en effet, selon cette étude, augmenter de 75 %. Plus précisément, les besoins en compétences avancées en informatique et en programmation devraient par exemple augmenter de 90 % entre 2016 et 2030. A l’inverse, les besoins en compétences à faible intensité cognitive - compétences physiques et manuelles principalement - vont connaître un net déclin. Employant les grands moyens, cette étude a commencé à diviser le marché du travail, à savoir le nombre total d'heures travaillées aux Etats-Unis et dans 14 pays européens, en 25 compétences, regroupées en cinq grandes familles. Dans un second temps, l’étude a tenté de relier ces tâches aux compétences correspondantes pour estimer leur évolution. Selon les prévisions de McKinsey, et contre toute attente, le nombre total d'heures travaillées en 2030 dans les pays étudiés ne serait pas inférieur à celui de 2016, progressant même de 5 % (683 milliards d'heures en 2030 contre 650 milliards aujourd'hui). Mais les compétences demandées sur le marché du travail vont, en revanche, considérablement évoluer. Dans l’ensemble des secteurs étudiés, les compétences physiques et manuelles, ainsi que les compétences intellectuelles de base, vont reculer de respectivement 14 % et 15 %, à cause de la montée en puissance rapide de la robotique polyvalente, d'une part, et de l'intelligence artificielle, d'autre part. Or ces compétences « de base » représentent aujourd'hui près de la moitié des heures de travail (318 milliards d'heures sur 650). D'ici à 2030, elles vont fortement décliner au profit de trois secteurs : en premier lieu, les compétences intellectuelles élevées - créativité, gestion de projets financiers, scientifiques ou juridiques -. En deuxième lieu, les compétences technologiques, directement liées à la révolution numérique et la gestion des données massives, qui vont augmenter de 55 %. Enfin, troisième secteur en pleine croissance, celui des compétences sociales et émotionnelles (+ 24 %), notamment dans les domaines de l’éducation, de la formation, de l’action sociale et de l’aide à la personne. Ainsi, l’étude de Mc Kinsey prévoit la fin, au cours de ces dix prochaines années, de la séparation multiséculaire des métiers entre « cols bleus » et « cols blancs ». Le numérique, l’IA et les robots collaboratifs (Cobots) vont faire émerger les « cols neufs », une nouvelle catégorie de travailleurs capables d’accomplir simultanément plusieurs tâches dévolues jusqu’à présent exclusivement aux professions intellectuelles. La deuxième partie de l'étude, qui repose sur une enquête auprès de cadres dirigeants, montre que toutes les entreprises ne sont pas égales, c’est le moins qu’on puisse dire, face à cette rupture historique majeure dans le monde du travail. Il y a d’un côté les « GAFA » (Google, Amazon, Facebook et Apple) ainsi que les géants de l’informatique, de l’électronique ou de la banque (Microsoft, Intel, Samsung), qui sont déjà complètement engagés dans cette voie et misent à fond sur les compétences à très forte valeur ajoutée. Mais il y a également tout un secteur plus traditionnel, essentiellement composé de petites et moyennes entreprises de production de biens et de services, qui peinent à utiliser toutes les potentialités du numérique, faute d'une organisation adéquate, mais aussi parce qu’elles manquent de collaborateurs ayant un niveau de polyvalence et de flexibilité cognitive suffisant… La montée en puissance de ces « cols neufs » et du besoin de partage des compétences en réseaux va également, selon cette étude, bouleverser toute l'organisation du travail et remettre complètement en question le modèle hiérarchique et pyramidal qui prévaut depuis plus de deux siècles, mais ne permet plus de répondre efficacement à des demandes de compétences de plus en plus variées et complexes. Une des plus fortes illustrations de ce que je pressentais dans mon rapport sénatorial de 1995, intitulé « Des pyramides du pouvoir aux réseaux de savoir », est évoquée par McKinsey avec le nouveau modèle économique de Zappos, un système américain de vente de chaussures en ligne apparu il y a 5 ans et autogéré par ses agents, selon le modèle de « l’holacracy », dans lequel les 1.500 employés sont organisés en cercles, animés par des managers de projet temporaires. Cette profonde et rapide mutation du marché du travail va avoir pour conséquences de faire exploser la demande pour les personnes les mieux formées, polyvalentes et flexibles. A contrario, tous ceux qui ne sauront pas évoluer dans leurs fonctions risquent fort de se voir remplacer par des robots, chabots et autres logiciels d’IA. Selon Mc Kinsey, les entreprises, pour faire face à cette mutation sans précédent, vont devoir opérer en trois étapes : d’abord, quantifier les besoins au sein de l’entreprise ; ensuite, planifier la formation ou la requalification des équipes et des compétences sur les 15 prochaines années. Enfin, mettre en œuvre de manière intelligente, individualisée et concertée, ces changements. C’est ce que fait par exemple At&T qui a décidé de former 140 000 personnes au cours des cinq prochaines années, ou encore Google qui forme 18 000 ingénieurs tous les deux ans, soit le tiers de sa population d’ingénieurs. Il est intéressant de rapprocher cette étude de Mc Kinsey avec une autre étude présentée il y a quelques semaines à Davos par le cabinet Accenture. Selon ce rapport, qui s'appuie sur une étude menée auprès de 14 000 salariés de tous les secteurs, dans onze pays différents, l'intelligence artificielle pourrait augmenter de 10 %, en moyenne, d’ici 2030 les effectifs des entreprises ayant investi dans cette technologie (Voir Accenture). L'étude évalue le gain moyen de l'utilisation de l'IA à 38 % sur le chiffre d'affaires et 10 % sur les effectifs. En tête de ce « gain numérique », on trouve le secteur des télécoms, avec une hausse de 46 % de chiffre d'affaires et de 21 % des eff ectifs. Il est intéressant de noter que ces deux études, celle de Mc Kinsey et celle d’Accenture, sont finalement complémentaires et se rejoignent pour estimer que, si les nouveaux outils numériques et robotiques vont, dans un premier temps, inévitablement détruire des emplois, ils peuvent également, dans une seconde phase, susciter des créations de nouveaux emplois plus importantes que les destructions initiales, selon le principe de « destruction créatrice », magistralement théorisé par le grand économiste Schumpeter, et à condition toutefois que les entreprises et les pouvoirs publics consentent un effort économique et financier et social sans précédent en faveur de la formation tout au long de la vie. A cet égard, l’opinion des dirigeants est éclairante, puisque 63 % pensent que l’IA permettra une création nette d’emplois dans leur entreprise d’ici 3 ans. Les employés sont pour leur part presque aussi nombreux, 62 %, à penser que l’IA aura un impact positif sur leur travail. Comme le souligne de manière pertinente Fabrice Asvazadourian, directeur exécutif d’Accenture pour la France, « Il ne faut pas se tromper d’objectif : ce sont les employés qu’il faut protéger, pas les emplois. De tous temps, des emplois ont disparu et de nouveaux ont vu le jour, avec in fine un nombre total d’employés toujours plus important, et il en sera de même avec la révolution numérique en cours si nous nous en donnons les moyens et investissons massivement dans la formation permanente individuelle ». En fin de compte, ce que nous disent ces deux études, c’est que la compétitivité et la croissance de demain reposeront de plus en plus sur un tryptique constitué par l’innovation technologique, l’innovation économique et enfin l’innovation cognitive et sociale, sans laquelle il ne sera pas possible d’exploiter toutes les potentialités liées aux ruptures technologiques et économiques. Il faut bien comprendre qu’à mesure que la révolution numérique et robotique va s’étendre et se diffuser dans l’ensemble de l’économie, des plus petites entreprises artisanales aux grands groupes mondiaux, les disparités d’ordre purement technologique vont s’estomper. Ce qui fera alors la différence, jusqu’à devenir un facteur absolument décisif de choix pour les clients et les consommateurs, c’est la capacité à organiser et à articuler de la manière la plus intelligente possible les compétences humaines et les outils techniques et à intégrer la dimension affective et relationnelle au cœur des fonctions économiques, qu’il s’agisse de la conception, de la production ou de la distribution de nouveaux biens et services. Ce défi technologique, économique et politique, est d’autant plus immense qu’il s’inscrit dans la perspective inéluctable du vieillissement considérable de nos sociétés, une évolution fondamentale qui va changer radicalement les besoins des individus, leurs aspirations et leurs modes de consommation. Espérons que notre pays saura préparer et accompagner cette extraordinaire mutation de société en repensant le concept même d’activité et en créant les conditions individuelles et collectives favorables qui permettront à chacun de s’épanouir dans un travail qui évoluera en permanence et mobilisera tout au long de la vie l’ensemble de nos compétences humaines, intellectuelles et sociales. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Santé, Médecine et Sciences du Vivant | |
| | | Une équipe danoise dirigée par Signe Sørup (Centre de Recherche sur les vaccins de Copenhague) a essayé d'évaluer si la revaccination avec le vaccin vivant contre la rougeole, les oreillons et la rubéole (ROR) était associée à un taux plus faible d'infections hors-cible. Au Danemark, le ROR a été introduit en 1987, et la première dose a été recommandée à l'âge de 15 mois depuis lors. Au 1er avril 2008, une deuxième dose de ROR (ROR-2) a été recommandée à l'âge de 4 ans. Les chercheurs ont utilisé les registres nationaux danois pour examiner l'hypothèse préétablie selon laquelle la vaccination par le ROR-2 était associée à un taux plus faible de morbidité due aux maladies infectieuses. Cette vaste étude a porté sur 295 559 enfants nés au Danemark entre le 1er avril 2004 et le 31 décembre 2010. Les cohortes ont été suivies à partir de 47 mois, c’est-à-dire un mois avant l'âge de 4 ans, âge recommandé pour le ROR-2, jusqu'à 60 mois. Les chercheurs ont estimé les taux d'incidence ajustés des prescriptions d'antibiotiques et des admissions à l'hôpital pour toute infection chez les enfants qui n'avaient reçu aucun vaccin non vivant avec ou après le ROR. Dans la cohorte suivie, 76,7 % des enfants ont reçu le ROR-2 avant l'âge de 60 mois. Il n'y avait pas d'association entre le ROR-2 et les prescriptions d'antibiotiques. Le taux d'incidence ajusté pour l'association entre le ROR-2 et les admissions pour toute infection, quelle qu'en soit la durée, était de 0,93. Pour les admissions pour infection durant de 0 à 1 jour, ce taux était de 0,97, à comparer à 0,84 (IC à 95 %, 0,74 à 0,95) pour les admissions pour infection de 2 jours ou plus. Les auteurs concluent : "Dans cette étude, la revaccination par le vaccin ROR semblait sûre et était associée à un taux plus faible d'infections graves non ciblées. Nous spéculons qu'à la suite d'une revaccination ROR, les antigènes immunisants peuvent former des complexes avec des anticorps préexistants et que ceux-ci produisent une réponse immunitaire non spécifique particulièrement bénéfique, offrant une protection contre les infections les plus graves". Article rédigé par Georges Simmonds pour RT Flash Clinical Infectious Diseases | | | |
| Des chercheurs américains de l’Université de Pennsylvanie ont réussi, grâce à une simulation numérique, à mieux comprendre comment se forment et se disséminent les métastases dans l'organisme. Les métastases correspondent au développement du cancer dans l’organisme. Ce sont des tumeurs fabriquées à partir de cellules cancéreuses qui se sont détachées d’une première tumeur. Elles se déplacent dans une autre partie du corps par le biais des vaisseaux lymphatiques ou sanguins. Souvent, les métastases se développent dans le cerveau, les os, le foie ou les poumons. Jimmy Qian et Erol Akçay, les deux chercheurs à l’origine de cette recherche, ont utilisé un modèle mathématique pour comprendre le processus de développement des tumeurs cancéreuses. Ils se sont rendu compte que les mutations des cellules, qui deviendront ensuite des métastases, apparaissent très tôt. Les cellules cancéreuses ne font pas que se reproduire parmi les cellules saines. Elles modifient également l’environnement pour qu’il soit plus propice à leur développement. Ce processus peut aussi se réaliser à distance. Des cellules malignes vont envoyer des signaux à travers la circulation sanguine vers d’autres endroits du corps humain. Ces signaux créent de nouveaux espaces de développement pour le cancer. Différents types de cellules cancéreuses forment la tumeur, certaines travaillent à construire l’environnement immédiat de la tumeur, d’autres à fabriquer des niches pré-métastasiques. Un troisième type de cellules est capable des deux à la fois, tandis que la quatrième catégorie est inactive. Pour les chercheurs, les cellules qui participent à la fabrication des niches pré-métastasiques sont les plus susceptibles d’accueillir la tumeur. Tout simplement parce qu’autour d’elles, elles n’ont pas de "compétiteurs", pas d’autres cellules cancéreuses qui consomment les ressources disponibles. La tumeur s’installe dans l’environnement le plus idéal pour elle, d’où cette observation. Jimmy Qian compare ce phénomène à une image : "C’est comme pour les humains. Nous préparons nos enfants en créant des fonds pour construire des écoles. Le cancer fait la même chose. Il prépare à distance un endroit où ses enfants pourront un jour migrer". Article rédigé par Georges Simmonds pour RT Flash Penn Today | | | |
| La sclérose en plaques est une maladie auto-immune où le mécanisme de défense du patient attaque son propre système nerveux central, composé du cerveau et de la moelle épinière, avec à la clé des troubles moteurs, sensitifs et cognitifs. Mais il semble qu'intervient également dans cette pathologie le système glymphatique, un mécanisme d’évacuation où coule le liquide céphalorachidien dans lequel baignent le cerveau et la moelle épinière. Une nouvelle étude réalisée par Fabian Docagne et son équipe du centre Cyceron à Caen démontre en effet que la circulation dans ce système est hautement perturbée dans la sclérose en plaques. On savait déjà que ce sont des cellules gliales bien particulières qui jouent un rôle important dans le système glymphatique : les astrocytes, cellules en forme d’étoile qui assurent le support et la protection des neurones. Celles-ci enveloppent les vaisseaux sanguins du cerveau jusqu’à leurs plus fines ramifications, les capillaires. Entre la paroi de ces derniers et les astrocytes, un petit espace laisse librement circuler le liquide céphalorachidien. À la manière du système lymphatique qui évacue les déchets cellulaires du reste de notre corps, le système glymphatique évacue ainsi ceux du système nerveux central. Grâce à une technique d’imagerie par résonance magnétique haute résolution, les chercheurs caenais ont observé les tissus cérébraux et de la moelle épinière de souris atteintes d’un modèle de sclérose en plaques. Ils ont ainsi mis en évidence une dérégulation de ce système qui pourrait être provoquée par une famille de protéines, l’aquaporine 4. Ces protéines forment des « pores » dans les membranes biologiques et sont perméables aux molécules d'eau. « Tel un barrage sur un fleuve », illustre Fabian Docagne, « ces canaux localisés au niveau des prolongements des astrocytes, que l’on nomme pieds, régulent la circulation du système glymphatique en dirigeant le flux de liquide. Si les aquaporines 4 sont délocalisées dans tout l’astrocyte, la circulation ne se fait plus correctement ». Par ailleurs, le système glymphatique serait surtout perturbé dans la moelle épinière, « bien qu’on ne sache pas si cela est une cause ou une conséquence de la maladie », poursuit le chercheur. Autre découverte : cette perturbation s’accompagne, en temps et en lieu, d’une infiltration massive de cellules immunitaires dans le système nerveux central qui s’attaquent à la myéline, substance protectrice qui entoure les fibres nerveuses. Or, ce phénomène de démyélinisation est en cause dans le développement de la sclérose en plaques. Néanmoins, « à l’heure actuelle, nous ne savons pas si c’est la dérégulation du système glymphatique qui facilite l’infiltration de cellules immunitaires, ou si c’est l’inverse », nuance Fabian Docagne. Désormais, son équipe cherche à identifier des cibles thérapeutiques qui permettraient d’intervenir sur le système glymphatique à différents stades de la maladie. « La recherche de nouvelles techniques d’imagerie non invasive chez l’Homme permettrait à l’avenir d’observer les effets d’un traitement qui cible le système glymphatique d’un patient », envisage le chercheur. Cette nouvelle voie de recherche pourrait également bénéficier à d’autres pathologies, notamment neurodégénératives, telles que la maladie d’Alzheimer, pour lesquelles une dérégulation du système glymphatique a aussi été mise en évidence. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Selon une vaste étude américaine présentée à l'occasion du congrès annuel de l’American Psychiatry Association, une supplémentation en vitamine D pourrait contribuer à améliorer les troubles dépressifs chez l’adulte, avec ou sans carence. Ces dernières années, de nombreux travaux ont été menés pour définir le rôle de la vitamine D et cerner son implication dans les diverses fonctions de l’organisme. Plusieurs études ont ainsi suggéré un lien entre un déficit et certaines pathologies, telles que des infections respiratoires, un diabète, une fragilité osseuse ou encore des troubles digestifs. La vitamine semble aussi avoir un rôle important dans la fonction cérébrale puisque des travaux ont déjà montré que les patients atteints de schizophrénie ou de la maladie d’Alzheimer présentent plus fréquemment une insuffisance en vitamine D. "Les patients dépressifs présentant un déficit en vitamine D sont ceux qui répondaient le mieux à une supplémentation, mais notre étude montre qu’un apport supplémentaire améliore également de manière significative les symptômes dépressifs chez des patients présentant un niveau normal en vitamine", souligne le Docteur Marissa Flaherty (University of Maryland School, Baltimore, Etats-Unis), principale auteure de l’étude. Article rédigé par Georges Simmonds pour RT Flash emedicine health | | | |
| Selon une étude américaine dirigée par Jennifer Rabin (Massachusetts General Hospital) les facteurs de risque cardiovasculaire (tabac, alcool, diabète, surpoids, sédentarité…) et d’AVC aggravent le risque de déclin cognitif chez la personne âgée. Le déclin cognitif correspond à une altération de l'ensemble des processus psychiques liés à l'esprit. Il englobe une multitude de fonctions orchestrées par le cerveau : le langage, la mémoire, le raisonnement, la coordination des mouvements (praxies), les reconnaissances (gnosies), la perception et l'apprentissage ainsi que les fonctions exécutives regroupant le raisonnement, la planification, le jugement et l'organisation. L’équipe de scientifiques a analysé les données de 223 participants âgés de 50 à 90 ans. Tous avaient des capacités cognitives normales. La recherche a été conçue pour déterminer si les facteurs de risque cardiovasculaire et d’AVC étaient en synergie avec le déclin cognitif, ou si ces trois variables évoluaient chacune de leur côté sans s’influencer les unes les autres. Un autre objectif était de déterminer si le risque vasculaire était un bon indicateur du déclin cognitif. Les résultats de l’essai indiquent que le fait d'avoir des facteurs de risque vasculaire comme le diabète, le tabagisme ou l'hypertension artérielle peut accélérer le déclin cognitif chez les adultes d’un certain âge. Autrement dit, les facteurs de risque vasculaire et de déclin cognitif ne s'additionnent pas, ils se potentialisent, c'est-à-dire qu'ils s'aggravent l'un l’autre. Par ailleurs, l’effet du risque vasculaire sur le déclin cognitif est amplifié chez les personnes ayant des niveaux plus élevés d'amyloïdes dans le cerveau, qui, rappelons-le, constituent les biomarqueurs de la maladie d'Alzheimer. "Nos résultats justifient le fait de cibler les facteurs de risque vasculaires modifiables, seuls ou en combinaison avec des thérapies amyloïdes, pour retarder le déclin cognitif. Les mesures du risque vasculaire peuvent aussi compléter les biomarqueurs existants et permettre d’identifier les personnes les plus à risque de déclin cognitif", explique Jennifer Rabin, auteure principale de l’article. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Selon une étude américaine dirigé par Patrick Forde, oncologue au Johns Hopkins Bloomberg-Kimmel, une immunothérapie administrée au stade précoce d'un cancer du poumon, et avant la chirurgie, réduit la taille de la tumeur à enlever, augmente le nombre de cellules immunitaires dans la tumeur et réduit le risque de récidives. Ce travail concerne le cancer du poumon non à petites cellules (CPNPC), c’est-à-dire la forme la plus fréquente de la maladie. L’immunothérapie est une stratégie thérapeutique en plein essor qui consiste à stimuler le système immunitaire du patient afin qu’il reconnaisse les cellules cancéreuses et qu’il les détruise. Jusqu’ici, l’immunothérapie était utilisée pour traiter les formes avancées de cancer du poumon non à petites cellules, et après la chirurgie. Mais cette nouvelle étude prouve que l'administration de nivolumab, une immunothérapie anti-PD-1 administrée avant la chirurgie ("immunothérapie adjuvante") permet d’en améliorer la réalisation et l’efficacité chez les malades atteints d'un cancer du poumon à un stade précoce. De fait, ces résultats changent complètement la manière d’aborder le traitement d’un cancer du poumon pris à un stade assez précoce de la maladie. Les chercheurs ont administré deux doses de nivolumab (3 mg/kg de nivolumab par voie intraveineuse toutes les deux semaines) avant la chirurgie chez 20 malades souffrant d’un cancer du poumon accessible à la chirurgie. Tous souffraient d’un cancer du poumon non à petites cellules de stade I, II ou III, jugé opérable. Vingt malades ont pu avoir une résection chirurgicale complète de leur tumeur après avoir reçu l’immunothérapie néoadjuvante. Après chirurgie, 16 des 20 malades sont vivants et sans récidive. Une réponse immunologique majeure est observée dans 45 % des tumeurs enlevées et ce traitement n’a jamais retardé ou gêné la chirurgie. Trois malades ont eu une rechute de leur cancer du poumon dont 2 ont eu un traitement supplémentaire et n'ont pas eu de nouvelle récidive. Un patient est décédé d'un cancer métastatique récidivant environ 16 mois après la résection chirurgicale. "Nous voulions examiner la tumeur et le système immunitaire des malades avant le traitement et les examiner à nouveau après le traitement pour analyser les changements", a déclaré Patrick Forde, premier auteur et spécialiste du cancer du poumon au Johns Hopkins Bloomberg-Kimmel, Washington DC. "Nous avons observé une régression tumorale chez près de la moitié de ces malades souffrant d'un cancer du poumon à un stade précoce et nous ne nous attendions pas à voir une telle réponse majeure avec seulement deux doses (de nivolumab)". Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Une étude publiée dans la revue Cochrane, réputée pour son indépendance et son sérieux, vient de démontrer que le vaccin contre le papillomavirus humain (HPV), réduit bien le nombre de lésions précancéreuses du col utérin. Deux virus en particulier, numérotés HPV 16 et HPV 18, sont les plus à risque de générer un cancer du col de l'utérus, mais il existe aussi de très nombreux sous-types. Pour ce récent travail, les relecteurs, des experts indépendants sous la houlette du Docteur Marc Arbyn, chef du service Epidémiologie des cancers à Bruxelles (Belgique), ont repris près de 30 essais cliniques menés sur 75 000 femmes âgées de 15 à 45 ans, tous comparant l'efficacité du vaccin contre un placebo. Résultat : les femmes ayant reçu le vaccin anti-HPV tôt, entre 15 et 25 ans et non porteuses du virus avant la vaccination, ont un risque beaucoup moins élevé de souffrir de lésions précancéreuses liées aux HPV 16 et 18 (2 pour 10 000 femmes vaccinées) en comparaison de celles qui n'ont pas bénéficié du vaccin (164 pour 10 000 femmes non vaccinées). De plus, cette réduction de lésions précancéreuses ne s'accompagne pas, selon les experts, d'une augmentation des effets secondaires. Néanmoins, il est encore trop tôt pour observer une diminution du nombre des cancers. Destiné en France uniquement aux adolescentes, ce vaccin qui vise à réduire le nombre de cancers du col, existe aujourd’hui sous deux formes. Cervarix (dit bivalent, agit sur HPV 16 et 18) et Gardasil (tétravalent, actif contre HPV 6, 11, 16 et 18). Un troisième vaccin, Gardasil 9 (dit nonavalent, actif en plus contre HPV 31, 33, 45, 52 et 58) est en attente de commercialisation. Mais comme le rappelait en octobre dernier la Haute Autorité de Santé, la prévention des infections à HPV est en France encore insuffisante. Article rédigé par Georges Simmonds pour RT Flash Cochrane | | | |
| Le Docteur Mireille Serlie, endocrinologue à l’Université d’Amsterdam (Pays-Bas), a réalisé avec son équipe une étude qui a inclus des sujets traités par stimulation cérébrale profonde (SCP) pour trouble obsessionnel compulsif (TOC). Ces recherches ont montré que le striatum dans le cerveau, via son signal dopamine, régule le métabolisme systémique du glucose, en affectant la sensibilité à l’insuline, ce qui ouvre de nouvelles pistes pour traiter le diabète de type 2. « Dès que nous aurons identifié les circuits neuronaux qui produisent ces effets de la SCP/dopamine sur la régulation du glucose, nous pourrons envisager des approches pour manipuler ces voies chez l'homme. Ceci pourrait conduire à de nouvelles options thérapeutiques pour les patients atteints du diabète de type 2 », estime-t-elle. Le diabète de type 2 et l’obésité sont caractérisés par une résistance à l’insuline. Celle-ci précède le diabète de type 2. Lorsque les cellules musculaires, hépatiques et adipeuses deviennent résistantes à l’insuline, le glucose entre moins bien dans ces cellules et reste dans le sang, favorisant ainsi l’hyperglycémie. La prévention passe par des changements du mode de vie (exercice) et de l’alimentation. De récentes études ont révélé que le cerveau est un important régulateur du métabolisme systémique du glucose. Des études chez l'animal ont suggéré que le signal dopamine du striatum ventral (dans le cerveau) contribue au contrôle systémique du glucose, mais il restait à en apporter la preuve directe chez l’homme. Le Docteur Serlie et ses collègues confirment maintenant cette hypothèse. Tout d’abord, ils ont observé qu’un patient diabétique de type 2 nécessitait une dose beaucoup plus faible d’insuline après avoir débuté un traitement de stimulation cérébrale profonde (SCP) pour un trouble obsessionnel compulsif (TOC) pharmaco-résistant. Leurs résultats suggèrent que la SCP ciblant le striatum ventral et libérant de la dopamine améliore la sensibilité à l’insuline sur les cellules musculaires, hépatiques et adipeuses. Ils ont ensuite étudié 14 patients non diabétiques (7 obèses) traités par SCP pour TOC ; chez eux aussi, la SCP libérant de la dopamine striée améliore la sensibilité périphérique à l’insuline. Inversement, une baisse de la dopamine striée provoquée par l’administration d’AMPT chez des sujets sains réduit la sensibilité à l’insuline. Enfin, chez la souris, l’activation des neurones dopaminergiques dans le noyau acumbens (NAc) du striatum ventral augmente la tolérance au glucose et la sensibilité à l’insuline. Tous ces résultats suggèrent que l’activité neuronale du striatum régule le métabolisme systémique du glucose. "Notre étude nous permet de mieux comprendre comment le cerveau régule le métabolisme du glucose chez l'homme et elle fournit la preuve que la stimulation cérébrale profonde affecte le métabolisme du glucose", précise le Docteur Serlie. Article rédigé par Georges Simmonds pour RT Flash Science Translational Medicine | | | |
| Un étude présentée à l'occasion du congrès de l’American Psychiatry Association (APA 2018), a confirmé l'efficacité et la bonne tolérance de l’eskétamine (une forme de kétamine) administré par voie intranasale, en combinaison avec un antidépresseur, dans le traitement de la dépression résistante. « Les patients traités par eskétamine ont présenté une diminution rapide et significative de leurs symptômes dépressifs, avec un effet clinique notable, comparativement à ceux prenant un traitement standard », a déclaré le Docteur Vanina Popova(Janssen Research and Development, Anvers, Belgique), co-auteure de l’étude, lors de sa présentation. Près d’un tiers des patients souffrant de dépression sont résistants aux antidépresseurs. Alors que l’administration par voie intraveineuse de kétamine, un antagoniste des récepteurs N-méthyl-D-aspartate (NMDA), a montré un effet antidépresseur important et rapide, l’attention se tourne désormais vers l’eskétamine, un énantiomère de la kétamine, plus facile à administrer et mieux toléré. Cet essai de phase 3 international a inclus plus de 200 patients dépressifs, âgés en moyenne de 45 ans et résistants à au moins deux traitements. Ils ont été randomisés pour recevoir deux fois par semaine, en intranasal, soit de l’eskétamine (56 mg, avec une hausse possible à 84 mg), soit un placebo, en plus d’un autre antidépresseur. La durée de traitement était de quatre semaines et la phase de suivi s’est déroulée sur deux mois. Les patients présentaient initialement une dépression modérée à sévère, avec des symptômes dépressifs. Au bout d'un mois, l’amélioration des symptômes est nettement plus importante dans le groupe recevant l’eskétamine, avec une différence de score MADRS moyen de -4 points. Cette différence est importante, a souligné le Docteur Popova, auprès de nos confrères de Medscape édition internationale. « Les antidépresseurs actuellement disponibles sont habituellement associés dans les essais à une différence de score MADRS de 2 à 3 points, par rapport au placebo ». Une rémission a été observée chez la moitié des patients (53 %) du groupe sous eskétamine, contre 31 % dans le groupe placebo. Le taux de réponse (baisse de 50 % du score MADRS initial) était respectivement de 70 et 52 %. Compte tenu de ces bons résultats, le laboratoire Janssen prévoit de déposer une demande d’autorisation de mise sur le marché aux Etats-Unis et en Europe d’ici la fin de l’année. Article rédigé par Georges Simmonds pour RT Flash Soverign Health | | | |
| Pour parvenir à contrôler la croissance de cellules souches dans le but de mettre au point de nouvelles thérapies pour la médecine régénératrice, il est indispensable de pouvoir réaliser des tests dans des conditions standardisées et utilisant le moins de cellules possibles. Actuellement, les cellules sont cultivées sur des supports très rigides qui ne reproduisent pas du tout les tissus humains : utiliser des matériaux biomimétiques pour la culture cellulaire ouvrirait de nouvelles perspectives. Or, jusqu’à présent, les biomatériaux étaient peu compatibles avec les méthodes à haut débit. De plus, fabriquer les biomatériaux directement au fond de plaques ayant de multiples puits représente un défi technique. Des chercheurs du Laboratoire des matériaux et du génie physique (CNRS/Grenoble INP) ont établi une méthode automatique pour résoudre ces deux difficultés. Leur méthode permet, au moyen d’un robot, d’assembler des films biomimétiques couche-par-couche in situ dans des microplaques pour la culture cellulaire. En ajustant les conditions de pipetage, des films très homogènes sont formés au sein de chaque micropuits, la variation d’épaisseur à l’intérieur d’un même puits et entre puits étant inférieure à 7 %. Ceci permet de garantir des conditions de culture de cellules reproductibles. Cette technique, applicable à différents types de films et de microplaques, est compatible avec des tests cellulaires courants utilisant des lecteurs de microplaques et des microscopes optiques automatisés. Les chercheurs ont ainsi testé l’adhésion cellulaire dans 16 conditions différentes de films. Ils ont aussi étudié la différenciation de cellules souches progénitrices de l’os au sein d’une même microplaque. Ces travaux ouvrent ainsi la voie à de futures applications des films biomimétiques pour des tests cellulaires dans le domaine de la médecine régénératrice et le criblage de médicaments à haut débit pour la thérapie des cancers. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Le virus de l’herpès, Herpes simplex virus (HSV), est un virus de la famille des Herpesviridae qui compte également parmi ses membres le virus d’Epstein-Barr, le virus du zona ou encore celui de la varicelle. Il en existe deux souches : la souche HSV-1, responsable de 95 % des herpès oro-faciaux et de 30 % des herpès génitaux, et la souche HSV-2 majoritairement responsable des herpès génitaux. Ce virus cible principalement les tissus nerveux et la peau (dermoneurotropie). Une fois l’organisme infecté et selon la zone de prédilection de la souche, le virus persiste toute la vie au sein des ganglions sacrés (HSV-2) ou dans le ganglion trigéminal (HSV-1). Ils peuvent s’avérer d’une exceptionnelle gravité chez la femme enceinte et chez le nouveau-né. Bien qu’aucun traitement curatif n’existe pour le moment, une équipe de virologues de l’Université de Louisiane vient de tester avec succès sur l’animal le premier vaccin contre le virus, qui démontrerait à la fois des effets préventifs et curatifs. Les résultats du vaccin, composé de trois protéines virales spécifiques, a en effet démontré des effets extrêmement encourageants sur le cochon d’inde et le singe. Les essais cliniques humains pourraient débuter dans moins de 18 mois. Le virus de l’herpès échappe au système immunitaire et aux traitement antiviraux en se cachant dans les neurones du système nerveux périphérique, plus précisément dans les axones composant les tissus nerveux. Les scientifiques ont utilisé une souche virale atténuée et modifiée, de manière à comporter une mutation génétique bloquant la protéine permettant au virus d’entrer dans les axones. Aucun des neuf cochons d’inde vaccinés et exposés à une souche du HSV-2 virulente n’a développé d’infection, contrairement aux neuf autres qui n’ont pas reçu le traitement préventif. Ces recherches indiquent que le vaccin peut également mobiliser le système immunitaire chez les cochons d’inde déjà infectés par le virus de l’herpès. En outre, les résultats indiquent que le vaccin est sans danger chez les primates non-humains. Article rédigé par Georges Simmonds pour RT Flash New Scientist | | ^ Haut | |
|
| | | Des chercheurs de l’Université de Californie, de Riverside (États-Unis) et de l’Université du Queensland (Australie), annoncent avoir identifié plus de 100 planètes géantes qui pourraient accueillir des lunes capables de porter la vie. Depuis le lancement en 2009 du télescope Kepler de la NASA, les astronomes ont identifié des milliers d’exoplanètes. Certaines d’entre elles pouvant être géologiquement semblables à la Terre, les planètes terrestres (rocheuses) sont des cibles de choix dans notre quête de la vie ailleurs dans l’Univers. Elles pourraient également présenter des atmosphères propices au développement de la vie. Sur ce point, nous pourrions également nous pencher sur les planètes géantes de gaz. Si elles-mêmes ne se portent pas candidates pour la recherche de la vie extraterrestre, leurs lunes le pourraient, à l’instar d’Europe autour de Jupiter, ou de Titan et Encelade autour de Saturne. Les chercheurs annoncent ici avoir identifié au total 121 planètes géantes orbitant dans les zones habitables de leur étoile. Et chacune d’entre elles devrait héberger plusieurs grandes lunes. Il y a actuellement 175 lunes en orbite autour des huit planètes de notre système solaire, la plupart autour de Saturne et Jupiter. Les astronomes ont déjà spéculé que les exolunes pourraient fournir un environnement favorable à la vie – peut-être même mieux que la Terre. Celles-ci reçoivent en effet de l’énergie non seulement de leur étoile, mais aussi du rayonnement réfléchi par leur planète. Jusqu’à présent, cependant, aucune exolune n’a été confirmée. « Maintenant que nous avons créé une base de données des planètes géantes connues dans la zone habitable de leur étoile, des observations des meilleures candidates pour héberger des exolunes potentielles pourront être faites. Il s’agira de concevoir des télescopes assez puissants pour que nous puissions détecter ces lunes, étudier leurs propriétés et rechercher des signes de vie », note Michelle Hill de l’Université du Queensland. Article rédigé par Georges Simmonds pour RT Flash Cornell University Library | | ^ Haut | |
|
| | | Des chercheurs de l’Ecole Polytechnique Fédérale de Lausanne (EPFL) ont trouvé un moyen simple et rapide de fabriquer des fibres multi-matériaux super-élastiques et ultra-performantes. Certaines d’entre elles ont déjà fonctionné comme capteurs sur un doigt robotique et dans des textiles. La méthode ouvre la voie à la fabrication de textiles intelligents et d’implants médicaux inédits. Le capteur mis au point par l'EPFL est totalement nouveau. Il se présente sous la forme d’une minuscule fibre d’élastomère, qui intègre divers matériaux, tels que des électrodes ou des polymères nano-composites. Cette fibre est capable de ressentir très précisément chaque pression et distorsion exercée sur elle, et peut se déformer de près de 500 %, avant de retourner à sa taille initiale. Un candidat idéal pour concevoir des textiles intelligents, équiper des prothèses médicales ou constituer des nerfs artificiels pour la robotique. Cette découverte sort tout droit du Laboratoire des fibres et matériaux photoniques FIMAP, dirigé par Fabien Sorin à la Faculté des sciences et techniques de l’ingénieur de l’EPFL. Les chercheurs y ont mis au point un procédé simple et rapide pour intégrer toutes sortes de microstructures au cœur de fibres super-élastiques. En plaçant plusieurs électrodes à des emplacements stratégiques, les fibres deviennent des capteurs extrêmement sensibles. Le procédé permet de produire plusieurs centaines de mètres de fibres en peu de temps. Pour réaliser leurs fibres, les scientifiques effectuent un fibrage à chaud (thermal drawing), une méthode classique utilisée pour fabriquer les fibres optiques. Dans un premier temps, une version macroscopique de la fibre est assemblée, avec des matériaux qui sont organisés selon un motif tridimensionnel bien défini. Cette préforme est ensuite chauffée, puis étirée comme du plastique fondu, jusqu’à former des fibres de quelques centaines de microns de diamètre. A l’intérieur, les motifs s’allongent le long de l’axe de la fibre, mais rétrécissent dans la direction transverse. Ainsi, leur positionnement relatif ne change pas. On obtient une fibre dotée d’une microarchitecture d’une grande complexité, avec des propriétés avancées. Jusqu’ici, seules des fibres rigides pouvaient être produites avec cette méthode. Fabien Sorin et son équipe l’ont utilisée pour fabriquer des fibres élastiques. Grâce à un nouveau critère de sélection des matériaux, ils ont pu identifier un type d’élastomères thermoplastiques, qui présentent une viscosité élevée lors du chauffage. Une fois le fibrage terminé, ces fibres peuvent être étirées et déformées, mais elles retournent toujours à leur état originel. A l’intérieur de ces fibres, il a été possible d’introduire des matériaux rigides comme des polymères nano-composites, des métaux, des thermoplastiques, mais aussi des métaux liquides qui peuvent se déformer facilement. En collaboration avec le Professeur Dr. Oliver Brock (Robotics and Biology Laboratory, Technical University of Berlin), les chercheurs ont déjà pu intégrer leurs fibres sur des doigts robotiques, en tant que nerfs artificiels. A chaque « toucher », la fibre déformée envoie des indications sur l’interaction entre le robot et son environnement tactile. Des fibres ont également été ajoutées à un vêtement test à grosses mailles, dans l’idée de détecter les pressions et étirements. « Nous pourrions envisager d'intégrer un clavier tactile directement dans les vêtements, par exemple », illustre Fabien Sorin. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| BMW et le MIT Self-Assembly Lab ont réussi à concevoir et fabriquer des structures capables de se transformer et de changer de forme et de taille à tout moment. Les deux partenaires affirment avoir développé le premier matériau d’impression 3D liquide et pneumatique qui pourrait bien avoir une utilité pour le secteur automobile. Les structures gonflables sont très utiles pour un certain nombre d’applications, que ce soit pour créer des packagings innovants mais aussi pour certains pièces intérieures d’une voiture. C’est donc sans surprise que BMW se concentre sur toutes ces pièces pneumatiques tandis que le MIT affirme avoir une approche plus globale sur la question. Ensemble, ils souhaitent révolutionner le confort des futures voitures autonomes. Ils auraient donc créé ce qu’ils appellent ‘Liquid Printed Pneumatics’ c’est-à-dire une structure gonflable imprimée à partir d’un liquide particulier, capable de changer de forme et de taille. Martina Starke, responsable vision de la marque et design chez BMW explique “Nous sommes fiers de pouvoir montrer nos résultats. Le projet Liquid Printed Pneumatics est un parfait exemple d’une collaboration interdisciplinaire fructueuse que nous verrons de plus en plus au cours des prochaines années, notamment chez BMW". Ces structures pneumatiques imprimées en 3D auraient été développées en déposant des couches successives de matériaux liquéfiés comme le caoutchouc, la mousse ou le plastique dans une cuve de gel. Ce gel permettrait de maintenir le liquide en place, offrant alors la possibilité de créer des objets plus grands ou plus complexes qu’une imprimante 3D. La forme alors obtenue resterait intacte jusqu’à ce qu’elle durcisse. Afin de créer ces structures gonflables, les chercheurs auraient utilisé un caoutchouc en silicone et auraient ensuite fait varier la pression grâce à des chambres à air afin que la structure puisse prendre différentes formes et plusieurs niveaux de fermeté. Skylar Tibbits, le fondateur du Self-Assembly Lab, explique en d’autres termes : “La structure est programmée avec de l’air. Il vous suffit d’envoyer différentes impulsions pour la faire varier”. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Les deux cofondateurs d’HySiLabs viennent d'être récompensés par une levée de fonds de 2 millions d’euros, destinée à accélérer la mise sur le marché de leur vecteur très novateur de transport de l’hydrogène, liquide, stable et sans danger. Vincent Lôme est doctorant en biotechnologie quand il découvre, à l’Université d’Aix-Marseille, une réaction catalytique d’extraction de l’hydrogène à partir d’hydrures de silicium. Ce passionné d’automobile en parle à son ami d’études, Pierre-Emmanuel Casanova, alors aux États-Unis pour un master en management de l’innovation. Convaincus qu’elle peut répondre à la problématique clé du transport de l’hydrogène, ils créent HySiLabs en février 2015 et développent une cellule d’extraction de l’hydrogène au sein du Technopôle de l’Arbois (Bouches-du-Rhône). Les voilà capables d’utiliser les hydrures de silicium coproduits par certains industriels. Fin 2016, ils décident de créer un véritable vecteur, capable de charger l’hydrogène là où il est produit et de le décharger là où on l’utilise. Forts de 600 000 euros gagnés dans divers concours, ils inventent à la fois un hydrure de silicium – un polymère constitué d’atomes de silicium liés chacun à deux atomes d’hydrogène – et sa méthode de synthèse à partir de la silice. Avec 2 millions d’euros et 5 recrutements – dont eux-mêmes –, ils se donnent dix-huit mois pour être en mesure de lancer la commercialisation de leurs process auprès des industriels producteurs d’hydrogène. Leur solution, baptisée Hydrosil, un vecteur liquide, stable et sans danger de transport de l’hydrogène. Soit un process pour charger à 100 % en hydrogène de la silice – en formant un hydrure de silicium – et un autre pour libérer en totalité et instantanément l’hydrogène chargé. Article rédigé par Georges Simmonds pour RT Flash L'Usine Nouvelle | | | |
| L’équipe américaine du Professeur Anish Tuteja de l’Université du Michigan a mis au point un revêtement « omniphobique » (qui repousse tous types de liquides) qui ne dépend pas du substrat. Il est transparent et conserve ses propriétés même quand la surface est rayée. L’équipe du Professeur Anish Tuteja a tout d'abord recensé les propriétés fondamentales d’un vaste catalogue de substances et ensuite a créé l’outil mathématique capable de prédire comment deux substances combinées pourraient se comporter. Cette approche leur a permis d’imaginer la combinaison d’un polymère (un polyuréthane fluoré) et d’un matériau superhydrophobe spécial appelé F-POSS (fluorodecyl polyhedral oligomeric silsesquioxane). Ce nouveau composé peut être appliqué sur n’importe quel substrat, il est transparent, repousse tous les liquides (eau, éthanol, huiles), assure une fonction d’auto-nettoyage, et est durable dans le temps grâce à une capacité d’auto-réparation. En outre, il est très facile à appliquer avec des procédés courants : dépôt par centrifugation, spray, trempage etc. En outre, des applications industrielles sont déjà envisagées pour la réfrigération, l’énergie et le raffinage ou toute autre industrie qui dépend de la condensation de liquide. En effet, ce revêtement pourrait permettre d’augmenter l’efficacité de certains processus de 20 % en aidant à détacher l’eau ou les produits chimiques condensés sur les parois des équipements. Article rédigé par Georges Simmonds pour RT Flash ACS | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | C'est une première mondiale : des chercheurs de l'Institut des sciences du mouvement – Étienne Jules Marey (CNRS/Aix-Marseille Université) se sont inspirés des oiseaux pour concevoir un robot aérien capable de modifier sa forme en plein vol. Il peut en effet changer l'orientation de ses bras, munis de moteurs et de pales pour se propulser comme un hélicoptère, pour réduire son envergure et naviguer dans des espaces encombrés. Les oiseaux et les insectes ailés possèdent une formidable capacité à réaliser des manœuvres rapides pour éviter les obstacles qu'ils rencontrent durant leur vol. Cette grande agilité est nécessaire pour naviguer dans des lieux très denses tels que des forêts ou des environnements très denses. Les robots volants seront également amenés à évoluer dans des milieux très encombrés pour des missions de secours, d'exploration ou de cartographie. Ces robots devront donc éviter les nombreux obstacles et franchir des passages plus ou moins exigus afin de remplir leur mission. Dans cette optique, les chercheurs de l'Institut des sciences du mouvement – Étienne Jules Marey (CNRS/Aix-Marseille Université) ont conçu un robot volant, capable de diminuer son envergure en plein vol pour passer à travers une ouverture sans avoir un pilotage agressif, trop coûteux en énergie. Ce nouveau robot, appelé Quad-Morphing, est doté de deux bras sur lesquels sont fixés deux moteurs munis chacun de pales qui lui permettent de se propulser comme un hélicoptère. Grâce à un mécanisme mêlant câbles souples et rigides, il est capable de modifier l'orientation de ses deux bras, c'est-à-dire de les orienter parallèlement ou perpendiculairement à son axe central, et ceci en plein vol. Il parvient ainsi à réduire son envergure de moitié, à franchir un passage étroit, et à se redéployer, le tout à une vitesse très élevée pour un robot aérien (9 km/h). L'agilité du Quad-Morphing est actuellement déterminée par la précision de son autopilote, qui déclenche le changement d'orientation des bras à l'approche d'un obstacle étroit sur la base de sa position fournie par un système de localisation 3D développé au laboratoire. Les chercheurs ont cependant équipé le robot d'une mini-caméra capable de capturer des images à haute cadence (120 images par seconde), ce qui lui permettra à l'avenir d'estimer par lui-même la taille de l'obstacle et de prendre la décision de se replier ou non. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|