Menu
24matins.fr24matins.fr
Obtenir l’application
Navigation : 
  • Actualité
    • Actualités du jour
    • Faits Divers
    • Insolite
    • Société
    • Santé
  • Économie
  • Politique
  • International
  • Sport
    • Foot
  • Tech
    • Sciences
  • Divertissement
    • Cinéma
    • Séries TV
    • Musique
    • Médias
    • People
En ce moment : 
  • FC Barcelone
  • BV Borussia Dortmund
  • Manchester City
  • Mercato
  • Actualités du jour

Facebook a supprimé 8,7 millions de contenus pédopornographiques ou de nudité infantile en trois mois

Tech > Facebook
Par Jérôme,  publié le 25 octobre 2018 à 16h05.

Le réseau avance qu'une nouvelle technologie d'intelligence artificielle aide à remplir cette tâche de modération des contenus.

Mercredi, le réseau social a annoncé via un billet de blog avoir supprimé, le trimestre dernier, pas moins de 8,7 millions de contenus contraires à ses règles sur la nudité et l’exploitation sexuelle d’enfants.

Et ce, qu’il s’agisse de pédopornographie ou de simples photos représentant un enfant dans une baignoire.

L’intelligence artificielle au secours de la modération

Certes, Facebook était avant cela déjà doté d’une système capable de comparer les nouvelles images avec celle connues d’exploitation d’enfants; et de les effacer directement.
Mais désormais, l’intelligence artificielle (IA) et le machine learning permettent d’analyser les contenus qui ne sont pas encore connus.

Le réseau social précise que la quasi-totalité, soit 99%, des contenus supprimés grâce à son nouveau système l’ont été “avant que quiconque ne les signale”.

En savoir plus
  • Près d’un Français sur quatre a déjà réalisé un achat suite à un placement de produit sur les réseaux sociaux
  • Classement des milliardaires 2022 : Un Français sur le podium, Elon Musk numéro 1
  • À Propos
  • Nous contacter
  • Infos Légales
  • Gestion des données personnelles
  • France
  • Deutschland
  • United Kingdom
  • España
© 2022 - Tous droits réservés sur les contenus du site 24matins.fr  - ADN Contents -