Menu
24matins
Navigation : 
  • Actualité
    • Faits Divers
    • Insolite
    • Société
    • International
  • Économie
  • Santé
  • Politique
  • Sport
  • Tech
    • trackr.fr
  • Divertissement
    • Séries TV
    • Films
    • Recettes
En ce moment : 
  • Astuces
  • États-Unis (USA)
  • Cuisine
  • Netflix
  • Star Wars

Facebook : un algorithme confond des personnes noires avec des singes

Tech > Facebook
Par Morgan Fromentin,  publié le 5 septembre 2021 à 15h00.

Un algorithme de recommandation de Facebook fait des siennes. L'intelligence artificielle propose des vidéos sur les primates après avoir vu une vidéo avec des personnes noires.

Les algorithmes utilisant l’intelligence artificielle peuvent être extrêmement bénéfiques, et extrêmement performants. Mais ils montrent assez vite leurs limites. Et dans la mesure où ceux-ci ne reflètent finalement que la manière dont ils ont été codés, la manière dont ils ont appris, ils souffrent souvent de ce que l’on appelle des biais. Un algorithme de Facebook a par exemple récemment assimilé des personnes noires à des singes.

Un algorithme de recommandation de Facebook fait des siennes

La plate-forme a immédiatement présenté ses excuses et évoque une « erreur inacceptable ». C’est un algorithme de recommandation, comme il en existe aujourd’hui énormément, du géant de Menlo Park, qui a des siennes en demandant à des utilisateurs s’ils souhaitaient voir d’autres « vidéos sur les primates » sous une vidéo d’un tabloïd britannique montrant des personnes noires. L’affaire a très rapidement fait un tollé sur les réseaux sociaux.

Un porte-parole du géant américain s’est rapidement exprimé sur le sujet : « Nous présentons nos excuses à quiconque a vu ces recommandations insultantes. » L’algorithme a par ailleurs été désactivé « dès que nous nous sommes aperçus de ce qui se passait afin d’enquêter sur les causes du problème et empêcher que cela ne se reproduise ».

L’intelligence artificielle propose des vidéos sur les primates après avoir vu une vidéo avec des personnes noires

Et de poursuivre : « Même si nous avons amélioré nos systèmes d’intelligence artificielle, nous savons qu’ils ne sont pas parfaits et que nous avons des progrès à faire. » Cette nouvelle affaire souligne les limites de l’intelligence artificielle, dans son modèle actuelle. Si ces technologies sont omniprésentes sur le plus grand réseau social de la planète, notamment pour construire un fil personnalisé à chaque utilisateur, elles servent aussi des desseins plus importants, comme l’identification et le blocage de messages et autres contenus qui pourraient être choquants.

Les biais de l’intelligence artificielle sont malheureusement encore très fréquents, et il est difficile de les faire disparaître des algorithmes. Les développeurs s’y emploient, bien sûr, mais il faudra du tout avant d’imaginer avoir des algorithmes parfaitement objectifs, si l’on peut dire. Dans le même temps, Facebook, comme nombre de plates-formes concurrentes, est fréquemment accusé de ne pas lutter suffisamment contre le racisme, la haine et autres discriminations. Un sujet très important à l’heure actuelle, a fortiori aux États-Unis où la situation est toujours très tendue.

Le Récap
  • Un algorithme de recommandation de Facebook fait des siennes
  • L’intelligence artificielle propose des vidéos sur les primates après avoir vu une vidéo avec des personnes noires
En savoir plus
  • Un mode spécial pour protéger les ados sur Facebook et Messenger
  • Meta bouleverse Facebook et Instagram : découvrez les changements majeurs sur les réseaux sociaux
  • Australie : un âge minimum de 14 à 16 ans bientôt imposé pour les réseaux sociaux
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • À Propos
  • Nous contacter
  • Infos Légales
  • Gestion des données personnelles
© 2025 - Tous droits réservés sur les contenus du site 24matins  - ADN Contents -