Facebook a supprimé 8,7 millions de contenus pédopornographiques ou de nudité infantile en trois mois
Le réseau avance qu'une nouvelle technologie d'intelligence artificielle aide à remplir cette tâche de modération des contenus.
Mercredi, le réseau social a annoncé via un billet de blog avoir supprimé, le trimestre dernier, pas moins de 8,7 millions de contenus contraires à ses règles sur la nudité et l’exploitation sexuelle d’enfants.
Et ce, qu’il s’agisse de pédopornographie ou de simples photos représentant un enfant dans une baignoire.
L’intelligence artificielle au secours de la modération
Certes, Facebook était avant cela déjà doté d’une système capable de comparer les nouvelles images avec celle connues d’exploitation d’enfants; et de les effacer directement.
Mais désormais, l’intelligence artificielle (IA) et le machine learning permettent d’analyser les contenus qui ne sont pas encore connus.
Le réseau social précise que la quasi-totalité, soit 99%, des contenus supprimés grâce à son nouveau système l’ont été “avant que quiconque ne les signale”.