Menu
24matins
Navigation : 
  • Actualité
    • Faits Divers
    • Insolite
    • Société
    • International
  • Économie
  • Santé
  • Politique
  • Sport
  • Tech
    • trackr.fr
  • Divertissement
    • Séries TV
    • Films
    • Recettes
En ce moment : 
  • France
  • Quotidien
  • Loi
  • Jardin
  • Cuisine

ChatGPT a accidentellement partagé vos prompts

Tech > OpenAI > ChatGPT
Par Jordan Servan,  publié le 16 novembre 2025 à 14h00.
Tech
ChatGPT

Image d'illustration. ChatGPTOpenAI / PR-ADN

Même si les mots de passe et identifiants n’étaient pas concernés, la fuite de prompts par ChatGPT montre que la prudence reste de mise lors de l’usage d’IA dotée d’accès au web.

Tl;dr

  • Une faille dans le mode navigation web de ChatGPT a exposé certains prompts utilisateurs dans les outils publics de Google Search Console.
  • Le bug, lié à une balise « hints=search », a entraîné l’indexation involontaire de ces données, perturbant parfois les statistiques des sites.
  • OpenAI a corrigé le problème, mais l’incident rappelle l’importance de protéger ses informations et de rester vigilant lors de l’usage d’IA connectée au web.

Une faille surprenante dans ChatGPT met la confidentialité en question

Il y a quelques semaines, plusieurs développeurs et propriétaires de sites ont remarqué un phénomène inattendu sur leurs tableaux de bord Google Search Console. Au lieu des requêtes traditionnelles et concises, ils ont vu apparaître des phrases entières, manifestement formulées par des humains — une signature typique d’une utilisation de l’intelligence artificielle générative, comme celle de ChatGPT. Ce détail anodin au premier abord s’est rapidement transformé en source d’inquiétude : comment ces échanges, supposés rester confidentiels, se retrouvaient-ils exposés dans les statistiques publiques ?

Derrière la fuite : l’enquête et l’origine du bug

Deux spécialistes du domaine, Jason Packer et Slobodan Manić, ont décidé de creuser la question. Leur investigation a permis d’identifier un dysfonctionnement lié au mode de navigation web de ChatGPT. En cause : une balise « hints=search », insérée lors de certaines sessions, incitait le chatbot à effectuer des recherches en temps réel. Cependant, cette commande glissait parfois des extraits du prompt utilisateur dans l’URL elle-même.

Ce processus automatisé a eu une conséquence insoupçonnée : les systèmes de Google, programmés pour indexer toute séquence ressemblant à une recherche, se sont mis à consigner ces informations dans les outils d’analyse accessibles aux gestionnaires de sites. Selon le média spécialisé Ars Technica, qui fut le premier à signaler cette anomalie, OpenAI a reconnu la faille tout en affirmant qu’elle n’a concerné qu’un faible volume de requêtes — sans préciser ni la durée exacte du problème ni le nombre total d’utilisateurs affectés.

Biais statistiques et risque pour la vie privée : quelles conséquences ?

Certes, aucune donnée hautement sensible — mots de passe ou identifiants personnels — n’aurait été compromise. Pourtant, cet épisode interroge sur la manière dont les assistants IA interagissent avec l’infrastructure web publique. De précédents incidents avaient déjà révélé que certains liens partagés depuis ChatGPT étaient référencés par Google suite à une action volontaire. Ici toutefois, aucun paramètre utilisateur n’était en cause : il s’agit bel et bien d’un bug interne.

L’incident a même perturbé certaines analyses statistiques : plusieurs sites ont constaté un pic inhabituel d’« impressions » sans hausse corrélée des clics — un schéma désormais baptisé « crocodile mouth » par les spécialistes.

Mieux utiliser l’IA : conseils pour préserver sa confidentialité

Même si la correction technique est annoncée comme effective par OpenAI, la vigilance reste indispensable. Pour limiter les risques liés à ce type d’incidents lors de l’usage d’une IA dotée d’un accès au web, il est recommandé :

  • N’intégrez pas d’informations sensibles dans vos requêtes, surtout lorsque le mode navigation est activé.
  • Désactivez les fonctions de navigation en ligne si elles ne sont pas indispensables.
  • Pensez à effacer régulièrement votre historique.

En définitive, alors que l’intégration croissante des outils IA au cœur du web multiplie les points d’interconnexion — et donc les potentielles failles — mieux vaut garder à l’esprit que chaque prompt peut avoir une portée bien plus large que prévue.

Le Récap
  • Tl;dr
  • Une faille surprenante dans ChatGPT met la confidentialité en question
  • Derrière la fuite : l’enquête et l’origine du bug
  • Biais statistiques et risque pour la vie privée : quelles conséquences ?
  • Mieux utiliser l’IA : conseils pour préserver sa confidentialité
En savoir plus
  • GPT‑5.1 : un assistant vraiment sur-mesure
  • ChatGPT ouvre son écosystème aux applications du quotidien
  • OpenAI exploite la biomédecine pour connecter humains et machines
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • À Propos
  • Nous contacter
  • Infos Légales
  • Gestion des données personnelles
© 2025 - Tous droits réservés sur les contenus du site 24matins  - ADN Contents -