Menu
24matins
Navigation : 
  • Actualité
    • Faits Divers
    • Insolite
    • Société
    • International
  • Économie
  • Santé
  • Politique
  • Sport
  • Tech
    • trackr.fr
  • Divertissement
    • Séries TV
    • Films
    • Recettes
En ce moment : 
  • France
  • Donald Trump
  • Pollution
  • Russie
  • Jardin

Chatbots et assistants IA : la mésinformation au cœur de nos recherches

Tech > IA
Par Jordan Servan,  publié le 24 octobre 2025 à 20h00.
Tech
IA

Image d'illustration. IAADN

Les erreurs fréquentes des assistants intelligents mettent en lumière un risque accru de mésinformation, surtout pour la génération Z.

Tl;dr

  • Près de 45% des réponses contiennent des erreurs significatives et 81% présentent un problème quelconque.
  • Plus de 3000 requêtes sur ChatGPT, Gemini, Copilot, Claude et Perplexity montrent des inexactitudes factuelles et des sources erronées.
  • Il est crucial de vérifier les sources, croiser les réponses et ne pas se contenter d’un simple résumé fourni par l’IA.

Omniprésente… mais imparfaite

Ces dernières années, les assistants basés sur l’IA se sont fondus dans notre quotidien : ils s’invitent dans nos recherches web, nous résument l’actualité et influencent désormais la manière dont beaucoup s’informent. Pourtant, une récente étude menée par l’European Broadcasting Union (EBU) vient refroidir cet enthousiasme. Selon ses conclusions, près de 45% des réponses générées par ces outils contiennent au moins une erreur significative, tandis que 81% présentent un problème quelconque – qu’il s’agisse d’une information obsolète, d’une formulation trompeuse ou de sources fictives.

Des assistants testés sur tous les fronts

Pour établir ce constat, les chercheurs de l’EBU ont soumis plus de 3 000 requêtes à différents assistants populaires : ChatGPT, Google Gemini, Microsoft Copilot, Claude, et Perplexity. L’étude, menée dans 14 langues, révèle notamment que :

  • 31% des réponses comportent des problèmes de sourcing (sources inexistantes ou erronées).
  • 20% contiennent des inexactitudes factuelles majeures (événements mal datés, citations mal attribuées).

Certains assistants comme Gemini se distinguent par leurs difficultés à citer correctement les sources ; d’autres, comme ChatGPT ou Claude, oscillent selon la version utilisée.

Mésinformation instantanée : un nouveau défi pour le public… et les médias

À l’heure où selon le Reuters Institute, déjà 15 % de la génération Z s’en remet aux chatbots pour suivre l’actualité, le risque d’avaler sans recul une information biaisée explose. Beaucoup d’assistants n’affichent pas clairement leurs sources ou confondent faits et opinions. Un test simple le prouve : interroger plusieurs IA sur le « dernier accord sur le plafond de la dette américaine » donne des résultats variables — seule la réponse de Claude, concise et rigoureuse sur la chronologie, sort véritablement du lot. D’autres modèles comme ChatGPT, en citant des articles fictifs datés du futur, minent leur propre crédibilité.

Mieux utiliser l’IA pour s’informer : quelques réflexes essentiels

Face à ces limites évidentes, comment se protéger ? Il vaut mieux formuler explicitement ses demandes (« Donne-moi les liens vers des sources fiables récentes »), exiger un horodatage précis (« Au 23 octobre, où en est-on ? »), croiser systématiquement les réponses entre plusieurs IA et ne jamais se contenter d’un simple résumé. Garder en tête que ces outils ne remplacent pas la vérification humaine demeure crucial.

L’enjeu dépasse le simple confort individuel : c’est désormais la confiance collective envers l’information qui vacille. Les éditeurs voient leur audience aspirée par ces interfaces automatisées, souvent au prix d’une déformation du travail original. Tant que ces systèmes peineront à garantir transparence et fiabilité en temps réel, il restera prudent de revenir aux sources primaires – quitte à demander explicitement : « Mène-moi à l’article original. »

Le Récap
  • Tl;dr
  • Omniprésente… mais imparfaite
  • Des assistants testés sur tous les fronts
  • Mésinformation instantanée : un nouveau défi pour le public… et les médias
  • Mieux utiliser l’IA pour s’informer : quelques réflexes essentiels
En savoir plus
  • ChatGPT Atlas : le navigateur web où ChatGPT prend le contrôle
  • OpenAI confronté au débat sur le droit à l’image
  • Apple et l’attente interminable de Siri 2.0
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • À Propos
  • Nous contacter
  • Infos Légales
  • Gestion des données personnelles
© 2025 - Tous droits réservés sur les contenus du site 24matins  - ADN Contents -