Facebook : un algorithme confond des personnes noires avec des singes
Un algorithme de recommandation de Facebook fait des siennes. L'intelligence artificielle propose des vidéos sur les primates après avoir vu une vidéo avec des personnes noires.
Les algorithmes utilisant l’intelligence artificielle peuvent être extrêmement bénéfiques, et extrêmement performants. Mais ils montrent assez vite leurs limites. Et dans la mesure où ceux-ci ne reflètent finalement que la manière dont ils ont été codés, la manière dont ils ont appris, ils souffrent souvent de ce que l’on appelle des biais. Un algorithme de Facebook a par exemple récemment assimilé des personnes noires à des singes.
Un algorithme de recommandation de Facebook fait des siennes
La plate-forme a immédiatement présenté ses excuses et évoque une “erreur inacceptable”. C’est un algorithme de recommandation, comme il en existe aujourd’hui énormément, du géant de Menlo Park, qui a des siennes en demandant à des utilisateurs s’ils souhaitaient voir d’autres “vidéos sur les primates” sous une vidéo d’un tabloïd britannique montrant des personnes noires. L’affaire a très rapidement fait un tollé sur les réseaux sociaux.
Un porte-parole du géant américain s’est rapidement exprimé sur le sujet : “Nous présentons nos excuses à quiconque a vu ces recommandations insultantes.” L’algorithme a par ailleurs été désactivé “dès que nous nous sommes aperçus de ce qui se passait afin d’enquêter sur les causes du problème et empêcher que cela ne se reproduise”.
L’intelligence artificielle propose des vidéos sur les primates après avoir vu une vidéo avec des personnes noires
Et de poursuivre : “Même si nous avons amélioré nos systèmes d’intelligence artificielle, nous savons qu’ils ne sont pas parfaits et que nous avons des progrès à faire.” Cette nouvelle affaire souligne les limites de l’intelligence artificielle, dans son modèle actuelle. Si ces technologies sont omniprésentes sur le plus grand réseau social de la planète, notamment pour construire un fil personnalisé à chaque utilisateur, elles servent aussi des desseins plus importants, comme l’identification et le blocage de messages et autres contenus qui pourraient être choquants.
Les biais de l’intelligence artificielle sont malheureusement encore très fréquents, et il est difficile de les faire disparaître des algorithmes. Les développeurs s’y emploient, bien sûr, mais il faudra du tout avant d’imaginer avoir des algorithmes parfaitement objectifs, si l’on peut dire. Dans le même temps, Facebook, comme nombre de plates-formes concurrentes, est fréquemment accusé de ne pas lutter suffisamment contre le racisme, la haine et autres discriminations. Un sujet très important à l’heure actuelle, a fortiori aux États-Unis où la situation est toujours très tendue.