Meta, Google et les autres plateformes échouent à protéger les élections Alors que 2024 compte un nombre record d’élections partout dans le monde, une étude menée par Mozilla révèle que les politiques des plateformes en ligne contribuent à fragiliser les démocraties des pays émergents. Notre équipe de recherche et d’enquête open source a analysé les politiques relatives aux élections annoncées par Meta, TikTok, YouTube et X dans différents pays, et leurs conclusions sont troublantes. La nature, la localisation et la motivation de ces initiatives soulèvent de nombreuses questions. Lire le résumé de l’étude → Les dernières actualités de la communauté Mozilla | | Le défi de l’identification des contenus générés par l’IA Les contenus générés par l’IA mettant en scène des président·e·s et des pop stars se répandent comme une traînée de poudre sur Internet. Mais les moyens pour les détecter et les présenter en tant que tels se révèlent inefficaces. Lire l’étude → |
|
---|
| | Le nouveau livre « Not my type » met à jour les biais racistes qui existent dans les algorithmes des applications de rencontres La professeure de l’Université du Michigan Apryl Williams, par ailleurs titulaire d’une bourse Mozilla, explore la discrimination fondée sur l’origine ethnique des utilisateurs·trices présent·e·s sur Tinder, Bumble et d’autres plateformes de rencontres. En savoir plus → |
|
---|
| | Comment (et pourquoi) désactiver la fonction d’appel vocal sur X (ex-Twitter) Le réseau social X a introduit une nouvelle fonctionnalité permettant de passer des appels audio et vidéo dans l’application. Mais des failles de sécurité importantes ont été découvertes. Voici comment la désactiver. En savoir plus → |
|
---|
| | Faut-il demander à une IA d’écrire votre CV ? L’IA générative peut réaliser des tâches aussi nombreuses que variées. Mais est-ce une raison suffisante pour lui demander ? Voici l’avis de Mozilla sur la question. En savoir plus → |
|
---|
| | Cette vidéo a-t-elle été générée à l’aide de l’IA ? OpenAI vient de sortir Sora, un outil pour créer des vidéos en haute définition sur la base d’un simple paragraphe rédigé par un·e utilisateur·trice. Mais comment faire pour reconnaître une vidéo générée par l’IA ? Voici quelques pistes → |
|
---|
Participer Les futurs évènements à ne pas manquer | | Pour une IA responsable Le 2 avril, en ligne : Les aliments que nous mangeons et les voitures que nous conduisons subissent tous des tests rigoureux, alors pourquoi les algorithmes que nous utilisons feraient-ils exception ? Rejoignez Deborah Raji, titulaire d’une bourse Mozilla, et Xavier Harding pour une discussion sur LinkedIn Live à propos des outils dont la société doit se doter pour des algorithmes responsables. Inscrivez-vous sur LinkedIn → |
|
---|
| | Existe-t-il un meilleur moyen de gouverner toutes ces données ? Le 13 mai, en ligne : Participez à un échange avec EM Lewis-Jong et Gina Moape pour découvrir Common Voice, le plus grand corpus vocal open source, sa licence CC0 et la façon dont ses données seront gouvernées. S’inscrire → |
|
---|
| | Tarifs « earlybird » pour le MozFest House Amsterdam ! Du 11 au 13 juin, à Amsterdam : Le MozFest House vous attend ! Discussions, ateliers collaboratifs, art et culture… Réservez dès maintenant vos billets en bénéficiant de tarifs réduits ! Acheter des billets → |
|
---|
Agir | | Demandez à OpenAI, Google et Microsoft d’être transparents sur les données utilisées pour entraîner leurs outils d’IA ! Comprendre de quelle façon sont entraînées les IA est indispensable pour leur faire confiance, mais aussi gérer les risques associés à ces technologies et s’assurer qu’Internet reste un outil au service de tout le monde. Signer la pétition → |
|
---|
Lire Découvrez ce que nos chercheurs·euses, titulaires de bourse et collaborateurs·trices lisent en ce moment Nobody knows how AI works (MIT Technology Review). De quoi ça parle : Les entreprises technologiques lancent des produits basés sur l’IA à un rythme effréné, tout en fermant les yeux sur le fait qu’ils sont difficiles à contrôler et se comportent parfois de façon étrange. Car en réalité, personne aujourd’hui ne sait vraiment ni comment ni pourquoi l’apprentissage profond fonctionne. Automakers Are Sharing Consumers’ Driving Behavior With Insurance Companies (New York Times). De quoi ça parle : L’entreprise LexisNexis a recueilli des données sur la conduite des conducteurs·trices de General Motors (GM), en enregistrant notamment leurs vitesses excessives, leurs freinages brutaux et leurs accélérations soudaines, afin d’établir des profils de risque pour les assurances. OpenAI’s GPT Is a Recruiter’s Dream Tool. Tests Show There’s Racial Bias. (Bloomberg, paywall). De quoi ça parle : Trouver le candidat idéal grâce à l’IA générative est une perspective séduisante pour de nombreux recruteurs. Mais une expérience menée par Bloomberg a mis en lumière des biais basés uniquement sur le nom des candidats. The rise and fall of robots.txt (The Verge). De quoi ça parle : La course effrénée des entreprises de l’IA pour collecter toujours plus de données met à mal le pacte social sur lequel Internet est basé. The National Public Opinion Poll on The Impact of AI (Elon University). De quoi ça parle : Aux États-Unis, les craintes des experts et celles des citoyens à propos de l’IA divergent. |