Bonjour, Bonne nouvelle : après plusieurs mois de pression de la part de la communauté Mozilla, WhatsApp a répondu à nos préoccupations concernant la désinformation liée aux élections et les contenus néfastes sur son application. Plusieurs mois durant, Mozilla a interpelé WhatsApp pour lui demander de faire davantage pour limiter la désinformation, la mésinformation mais aussi les discours de haine sur sa plateforme. Et surtout de faire vite, car 2024 est une année cruciale pour la démocratie avec un nombre record d’élections. Nous avons enfin reçu une réponse complète de WhatsApp. Ce qu’elle contient ? De nouvelles informations sur certaines fonctionnalités clés comme les limites imposées aux transferts d’information, l’étiquetage des contenus, mais aussi le plan d’action de WhatsApp pour lutter contre l’émergence des contenus générés par l’IA. Nous apprécions la prise en compte de nos préoccupations et la modification de la stratégie électorale de WhatsApp, mais malheureusement, certaines zones d’ombres subsistent toujours. L’entreprise a donné peu d’explications sur la façon dont elle compte empêcher les responsables politiques d’exploiter la plateforme à des fins électorales, mais aussi sur la manière dont elle mesure l’efficacité de ses actions. Pourtant, ces aspects sont cruciaux, surtout quand on sait que WhatsApp occupe un rôle de premier plan dans l’écosystème des réseaux sociaux, et que ses fonctionnalités de partage et de diffusion ont permis à la désinformation et à d’autres contenus néfastes de se répandre massivement lors de précédentes élections. C’est à nous tous, membres de la communauté Mozilla, de rappeler aux géants de la tech qu’ils portent une responsabilité et qu’il est de leur devoir de protéger les élections partout dans le monde. Ensemble, nous pouvons obtenir de grandes avancées de la part de plateformes comme WhatsApp. Mais il n’y a qu’en unissant nos forces que nous pourrons y arriver. Seriez-vous d’accord pour faire un don de 10 € pour permettre à Mozilla de poursuivre son travail d’investigation et ses campagnes de sensibilisation ? Ensemble, nous pouvons protéger l’intégrité des élections et lutter contre la désinformation. Je fais un don → Voici plus de détails sur ce que nous avons appris dans le message adressé par WhatsApp. Viralité des messages WhatsApp ne fournit pas beaucoup de détails concernant les critères utilisés pour mesurer l’efficacité des mesures prises pour limiter la propagation de contenus. L’application avance que la viralité des messages constitue un élément essentiel de la lutte contre la désinformation sur la plateforme, sans donner d’autres précisions. Elle souligne néanmoins que WhatsApp est « l’une des rares entreprises technologiques à restreindre volontairement le partage de contenus » et cite l’exemple des limites imposées au transfert de messages1. Ces informations, bien qu’elles illustrent la stratégie mise en œuvre par WhatsApp pour les élections, ne permettent toutefois pas de répondre à notre question. En d’autres termes : comment WhatsApp détermine que les changements mis en place permettent effectivement d’enrayer la propagation de contenus néfastes ? Étiquettes de transfert Nous avions demandé à WhatsApp d’ajouter des invites de vérification à son étiquette « Transféré de nombreuses fois » pour mieux lutter contre la désinformation mais aussi la mésinformation. WhatsApp indique avoir testé différents styles d’étiquettes pour les messages transférés. Selon l’entreprise, l’étiquette « Transféré de nombreuses fois » est une des mesures clés pour ralentir la propagation des « rumeurs, des messages viraux et des fausses informations ». WhatsApp nous a indiqué avoir testé plusieurs versions de cette étiquette dans différents pays, y compris auprès de populations ayant un faible niveau de lecture. L’application a ensuite déclaré avoir constaté que « l’utilisation de mots plus complexes pouvait en réalité réduire leur efficacité ». Bien que cela éclaire d’un jour nouveau la façon dont WhatsApp en est arrivé à cette étiquette, il aurait été intéressant d’en apprendre davantage sur la méthodologie employée par WhatsApp pour mener ses tests. Responsables politiques Nous avons interrogé WhatsApp pour savoir de quelle façon l’entreprise s’y prenait pour bannir les responsables politiques qui exploitaient sa plateforme à des fins électorales, mais nous n’avons pas obtenu de réponses à ce sujet. WhatsApp affirme utiliser une « technologie avancée » permettant d’identifier les comptes dont le comportement est anormal, comme ceux qui envoient des messages de façon massive et/ou automatisée, mais nous n’avons pas reçu de plus de détails. Nous savons juste que WhatsApp bannit plus de 8 millions de comptes par mois pour ces motifs. Malgré tout, il est clair que de nombreux responsables politiques ont réussi à contourner les dispositifs de sécurité de WhatsApp. Des études de Mozilla ont révélé qu’ils avaient tendance à exploiter les fonctionnalités de diffusion de la plateforme pour propager non seulement de la désinformation, mais également des contenus néfastes2. Ici aussi, davantage d’informations auraient été les bienvenues. Désinformation générée par l’IA WhatsApp affirme que ses partenariats noués avec des entreprises spécialisées dans la vérification des faits (« fact-checking ») contribuent à lutter contre la désinformation générée par l’IA sur sa plateforme. L’application déclare également être en train de développer « de nouveaux partenariats avec des organisations spécialisées sur l’IA ». La stratégie de WhatsApp pour faire face aux contenus générés par l’IA emploie donc des tactiques similaires à celles qu’elle déploie pour les élections en général. Pour lire la déclaration complète de WhatsApp ainsi que les réponses de Mozilla, rendez-vous sur notre blog3. Nous apprécions la réponse détaillée de WhatsApp, et notamment les nouvelles informations fournies sur les mesures concrètes prises pour remédier aux problèmes que nous avons identifiés. Nous espérons que les informations fournies par WhatsApp seront utiles aux chercheurs et chercheuses, aux journalistes, aux organisations à but non lucratif ainsi qu’aux spécialistes en intégrité électorale, dont beaucoup ont continué à documenter la désinformation et les discours de haine sur WhatsApp, mais aussi sur les autres réseaux sociaux lors des nombreux scrutins de cette année. Lors des élections indiennes de 2024, ils ont par exemple mis en évidence4 l’utilisation intensive de WhatsApp par les partis politiques5 pour diffuser des deepfakes et manipuler l’opinion publique. WhatsApp n’a pas encore donné suite à toutes nos demandes, mais sa décision d’engager le dialogue avec notre communauté marque un véritable tournant. C’est une victoire collective, obtenue grâce à l’implication de dizaines de milliers de personnes à travers le monde. Et cela démontre l’impact que nous pouvons avoir lorsque nous agissons ensemble. Des victoires comme celles-ci prouvent que lorsque nous unissons nos forces, nous pouvons créer un Internet où les géants de la tech peuvent – et doivent – rendre des comptes. Un Internet qui préserve l’intégrité de nos élections en les protégeant de la désinformation. Un Internet au service de tous, et pas seulement de quelques intérêts privés. Mais comme vous le savez, il n’y a qu’ensemble que nous pouvons y arriver. Accepteriez-vous de faire un don de 10 € à Mozilla ? Les dons des membres de la communauté Mozilla, comme vous, sont à la base de notre mouvement, qui lutte pour empêcher les géants de la tech de s’emparer d’Internet. Je fais un don → Merci de faire partie de cette incroyable communauté, et merci pour tout ce que vous faites pour Internet. Nicholas Piachaud Directeur des campagnes Mozilla Pour en savoir plus : 1. Centre d’aide WhatsApp. À propos des limites de transfert. 2. Mozilla. Étude sur les élections par Mozilla. 27 février 2024. 3. Mozilla. WhatsApp répond à nos questions sur les élections. 6 août 2024. 4. Rest of World. Dans le système WhatsApp du BJP (Bharatiya Janata Party). 15 mai 2024. 5. TIME. Comment les partisans de Narendra Modi ont utilisé les réseaux sociaux pour propager de la désinformation pendant les élections. |