Les dernières informations sur l’IA digne de confiance et la confidentialité de Mozilla et ailleurs sur le Web. ‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ ͏‌ 

 
Mozilla | News Byte
Mozilla | News Byte
 

Meta, Google et les autres plateformes échouent à protéger les élections

L'urne et le bulletin de vote, symboles d’élections libres et transparentes.

Alors que 2024 compte un nombre record d’élections partout dans le monde, une étude menée par Mozilla révèle que les politiques des plateformes en ligne contribuent à fragiliser les démocraties des pays émergents. Notre équipe de recherche et d’enquête open source a analysé les politiques relatives aux élections annoncées par Meta, TikTok, YouTube et X dans différents pays, et leurs conclusions sont troublantes. La nature, la localisation et la motivation de ces initiatives soulèvent de nombreuses questions.

Lire le résumé de l’étude →
 

Les dernières actualités de la communauté Mozilla

Une personne absorbée par des images et des vidéos générées par l’IA, projetées sur plusieurs écrans.
 

Le défi de l’identification des contenus générés par l’IA

Les contenus générés par l’IA mettant en scène des président·e·s et des pop stars se répandent comme une traînée de poudre sur Internet. Mais les moyens pour les détecter et les présenter en tant que tels se révèlent inefficaces.

Lire l’étude →

 
Apryl Williams, professeure de l’Université du Michigan et titulaire d’une bourse Mozilla
 

Le nouveau livre « Not my type » met à jour les biais racistes qui existent dans les algorithmes des applications de rencontres

La professeure de l’Université du Michigan Apryl Williams, par ailleurs titulaire d’une bourse Mozilla, explore la discrimination fondée sur l’origine ethnique des utilisateurs·trices présent·e·s sur Tinder, Bumble et d’autres plateformes de rencontres.

En savoir plus →

 
Nouvelle fonctionnalité d’appel vocal sur Twitter
 

Comment (et pourquoi) désactiver la fonction d’appel vocal sur X (ex-Twitter)

Le réseau social X a introduit une nouvelle fonctionnalité permettant de passer des appels audio et vidéo dans l’application. Mais des failles de sécurité importantes ont été découvertes. Voici comment la désactiver.

En savoir plus →

 
Un PC portable avec un CV rédigé par un·e humain·e et un autre juste à côté, rédigé par une IA
 

Faut-il demander à une IA d’écrire votre CV ?

L’IA générative peut réaliser des tâches aussi nombreuses que variées. Mais est-ce une raison suffisante pour lui demander ? Voici l’avis de Mozilla sur la question.

En savoir plus →

 
Un PC portable avec l’image d’une vidéo générée par l’IA sur l’écran
 

Cette vidéo a-t-elle été générée à l’aide de l’IA ?

OpenAI vient de sortir Sora, un outil pour créer des vidéos en haute définition sur la base d’un simple paragraphe rédigé par un·e utilisateur·trice. Mais comment faire pour reconnaître une vidéo générée par l’IA ?

Voici quelques pistes →

 

 

Participer

Les futurs évènements à ne pas manquer

Pour une IA responsable avec Deborah Raji et Xavier Harding
 

Pour une IA responsable

Le 2 avril, en ligne : Les aliments que nous mangeons et les voitures que nous conduisons subissent tous des tests rigoureux, alors pourquoi les algorithmes que nous utilisons feraient-ils exception ? Rejoignez Deborah Raji, titulaire d’une bourse Mozilla, et Xavier Harding pour une discussion sur LinkedIn Live à propos des outils dont la société doit se doter pour des algorithmes responsables.

Inscrivez-vous sur LinkedIn →

 
Arriver plus vite à une IA digne de confiance avec le président de Mozilla Mark Surman et la présentatrice Bridget Todd
 

Accélérer le développement d’une IA digne de confiance

Le 4 avril, en ligne : Le président de Mozilla Mark Surman et la présentatrice Bridget Todd discuteront des moyens pour « accélérer le développement d’une IA digne de confiance ».

S’inscrire sur LinkedIn →

 
Common Voice : existe-t-il un meilleur moyen de gouverner toutes ces données ?
 

Existe-t-il un meilleur moyen de gouverner toutes ces données ?

Le 13 mai, en ligne : Participez à un échange avec EM Lewis-Jong et Gina Moape pour découvrir Common Voice, le plus grand corpus vocal open source, sa licence CC0 et la façon dont ses données seront gouvernées.

S’inscrire →

 
Prêt·e pour le MozFest House Amsterdam 2024 ?
 

Tarifs « earlybird » pour le MozFest House Amsterdam !

Du 11 au 13 juin, à Amsterdam : Le MozFest House vous attend ! Discussions, ateliers collaboratifs, art et culture… Réservez dès maintenant vos billets en bénéficiant de tarifs réduits !

Acheter des billets →

 

 

Agir

Une araignée et des documents répartis comme sur une toile symbolisant l’exploration sur Internet
 

Demandez à OpenAI, Google et Microsoft d’être transparents sur les données utilisées pour entraîner leurs outils d’IA !

Comprendre de quelle façon sont entraînées les IA est indispensable pour leur faire confiance, mais aussi gérer les risques associés à ces technologies et s’assurer qu’Internet reste un outil au service de tout le monde.

Signer la pétition →

 

 

Lire

Découvrez ce que nos chercheurs·euses, titulaires de bourse et collaborateurs·trices lisent en ce moment

Nobody knows how AI works (MIT Technology Review). De quoi ça parle : Les entreprises technologiques lancent des produits basés sur l’IA à un rythme effréné, tout en fermant les yeux sur le fait qu’ils sont difficiles à contrôler et se comportent parfois de façon étrange. Car en réalité, personne aujourd’hui ne sait vraiment ni comment ni pourquoi l’apprentissage profond fonctionne.

Automakers Are Sharing Consumers’ Driving Behavior With Insurance Companies  (New York Times). De quoi ça parle : L’entreprise LexisNexis a recueilli des données sur la conduite des conducteurs·trices de General Motors (GM), en enregistrant notamment leurs vitesses excessives, leurs freinages brutaux et leurs accélérations soudaines, afin d’établir des profils de risque pour les assurances.

OpenAI’s GPT Is a Recruiter’s Dream Tool. Tests Show There’s Racial Bias. (Bloomberg, paywall). De quoi ça parle : Trouver le candidat idéal grâce à l’IA générative est une perspective séduisante pour de nombreux recruteurs. Mais une expérience menée par Bloomberg a mis en lumière des biais basés uniquement sur le nom des candidats.

The rise and fall of robots.txt (The Verge). De quoi ça parle : La course effrénée des entreprises de l’IA pour collecter toujours plus de données met à mal le pacte social sur lequel Internet est basé.

The National Public Opinion Poll on The Impact of AI (Elon University). De quoi ça parle : Aux États-Unis, les craintes des experts et celles des citoyens à propos de l’IA divergent.

 
 

Voilà : nous espérons que vous avez apprécié cette newsletter ! Si c’est le cas, n’hésitez pas à soutenir les actions de Mozilla avec un don unique ou mensuel.

Pour information, voici à quoi servira votre contribution :

Establishing AI

Développer une IA digne de confiance

Establishing AI

Mettre les géants de la tech face à leurs responsabilités

Establishing AI

Protéger votre vie privée

 

Si vous le pouvez, faites un don de 23 € à Mozilla pour qu’Internet reste au service de tous et ne serve pas seulement quelques intérêts privés. Nous sommes fiers d’être une organisation à but non lucratif, et chaque don peut faire la différence.

Faire un don →
 
 

Suivez-nous

Twitter  YouTube   Instagram
 

Merci de votre attention !

Vous recevez cet e-mail parce que vous vous êtes abonné·e à la newsletter Actualité de Mozilla. Si vous ne souhaitez plus recevoir nos e-mails, nous vous invitons à vous désabonner.

Vous pouvez aussi mettre à jour vos préférences en matière d'e-mails à tout moment.

 
❤️ Mozilla ❤️
 
Faire un don

149 New Montgomery St, 4th Floor, San Francisco, CA 94105 USA

Mentions légales • Confidentialité

Unsubscribe