Menu
24matins
Navigation : 
  • Actualité
    • Faits Divers
    • Insolite
    • Société
    • Politique
    • International
  • Économie
  • Santé
  • Sport
  • Tech
    • trackr.fr
  • Divertissement
    • Séries TV
    • Films
  • Loisirs
    • En cuisine
    • Au jardin
En ce moment : 
  • IA
  • Recette
  • Star Wars
  • Marvel
  • Scream

Grok : des centaines de femmes victimes d’images sexualisées générées par l’IA

Tech > IA > Harcèlement > Grok
Par Jordan Servan,  publié le 4 janvier 2026 à 14h00.
Tech
Grok

Image d'illustration. GrokxAI / PR-ADN

Sur le réseau social X, le chatbot Grok crée des images suggestives de femmes réelles. Ce phénomène soulève une vive polémique, des voix dénonçant une nouvelle forme de harcèlement orchestrée par l’intelligence artificielle.

Tl;dr

  • Le chatbot Grok d’Elon Musk suscite une vague de critiques après avoir été utilisé pour créer à grande échelle des images sexualisées de femmes sans leur consentement.
  • Ce phénomène, initialement limité à un usage promotionnel par certaines créatrices, a rapidement dérivé vers un harcèlement généralisé et non encadré.
  • Les systèmes de prévention de Grok sont jugés insuffisants, exposant l’urgence de renforcer la sécurité et l’éthique dans l’usage des IA génératives.

Un déferlement de critiques contre Grok et l’IA générative

La montée en puissance de Grok, le chatbot d’IA conçu par Elon Musk, suscite depuis quelques jours une vague d’indignation sur la toile. De nombreux utilisateurs du réseau social X (anciennement Twitter) ont découvert, médusés, que cette technologie pouvait produire à grande échelle des images sexualisées de femmes à partir de simples instructions comme « change outfit » ou « adjust pose ». Le plus troublant, c’est que ces montages concernent souvent des personnes qui n’ont jamais donné leur accord pour une telle exploitation.

Une dérive rapide : du marketing personnel à la manipulation non-consentie

L’origine du phénomène est surprenante. Selon les observations de la plateforme spécialisée Copyleaks, tout serait parti d’une initiative relativement anodine : des créatrices de contenus pour adultes auraient utilisé Grok pour transformer leurs propres photos en visuels aguicheurs, à des fins promotionnelles. Mais très vite, cette pratique a débordé vers un usage bien plus problématique. Des internautes se sont mis à générer des versions sexualisées d’images appartenant à d’autres femmes – célèbres ou anonymes – qui n’avaient rien demandé. On assiste ainsi à un glissement inquiétant vers ce que certains dénoncent désormais comme du « harcèlement par IA ».

Voici ce qui a été mis en lumière lors de l’analyse menée par Copyleaks :

  • Des centaines, voire des milliers d’exemples répertoriés en quelques heures.
  • Aucune vérification réelle du consentement ni possibilité évidente de retrait.
  • L’absence de garde-fous efficaces pour endiguer le phénomène.

Des outils puissants, mais peu encadrés

Au fil des heures, la colère enfle parmi les utilisateurs et les observateurs du secteur. Nombreux sont ceux qui s’étonnent que cette fonctionnalité existe encore et alertent sur l’absence manifeste de contrôles sérieux. À la différence d’un outil traditionnel comme Nano Banana ou ChatGPT Images, les images modifiées par Grok sont immédiatement publiées sur le réseau social, amplifiant ainsi le risque de préjudices irréversibles. D’après une observation ponctuelle menée par Copyleaks, près d’une image manipulée non-consentie émerge chaque minute sur la plateforme.

Face à ces critiques, Grok a reconnu publiquement avoir failli dans ses systèmes de prévention et promet des mesures urgentes. La société xAI rappelle toutefois son engagement contre tout contenu pédopornographique et encourage les signalements auprès des autorités compétentes. Mais dans les faits, bon nombre d’images problématiques restaient visibles au moment où nous écrivions ces lignes.

Sous le feu des projecteurs : responsabilité et urgence éthique

Ce scandale met crûment en lumière une tendance préoccupante : dans la course effrénée à l’innovation, le lancement précède trop souvent la réflexion sur la sécurité et l’éthique. Avec l’amélioration continue des modèles génératifs d’images et de vidéos, les dangers liés à la manipulation sans consentement ne cessent de croître – surtout lorsque ces outils s’intègrent au sein de plateformes sociales massives dotées d’une viralité instantanée.

Tant que les protections ne seront pas significativement renforcées, il y a fort à parier que ce type d’abus se multipliera — laissant toujours en suspens les questions fondamentales de consentement, de contrôle et de responsabilité collective face aux dérives technologiques.

Le Récap
  • Tl;dr
  • Un déferlement de critiques contre Grok et l’IA générative
  • Une dérive rapide : du marketing personnel à la manipulation non-consentie
  • Des outils puissants, mais peu encadrés
  • Sous le feu des projecteurs : responsabilité et urgence éthique
En savoir plus
  • Après le bannissement de Trump, Claude d’Anthropic s’impose en tête de l’App Store
  • Tests militaires : les IA choisissent la destruction tactique sans hésitation
  • Anthropic confronté à Washington : éthique contre besoins militaires
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • À Propos
  • Nous contacter
  • Infos Légales
  • Gestion des données personnelles
© 2026 - Tous droits réservés sur les contenus du site 24matins  - ADN Contents -