Chatbots et assistants IA : la mésinformation au cœur de nos recherches

Image d'illustration. IAADN
Les erreurs fréquentes des assistants intelligents mettent en lumière un risque accru de mésinformation, surtout pour la génération Z.
Tl;dr
- Près de 45% des réponses contiennent des erreurs significatives et 81% présentent un problème quelconque.
- Plus de 3000 requêtes sur ChatGPT, Gemini, Copilot, Claude et Perplexity montrent des inexactitudes factuelles et des sources erronées.
- Il est crucial de vérifier les sources, croiser les réponses et ne pas se contenter d’un simple résumé fourni par l’IA.
Omniprésente… mais imparfaite
Ces dernières années, les assistants basés sur l’IA se sont fondus dans notre quotidien : ils s’invitent dans nos recherches web, nous résument l’actualité et influencent désormais la manière dont beaucoup s’informent. Pourtant, une récente étude menée par l’European Broadcasting Union (EBU) vient refroidir cet enthousiasme. Selon ses conclusions, près de 45% des réponses générées par ces outils contiennent au moins une erreur significative, tandis que 81% présentent un problème quelconque – qu’il s’agisse d’une information obsolète, d’une formulation trompeuse ou de sources fictives.
Des assistants testés sur tous les fronts
Pour établir ce constat, les chercheurs de l’EBU ont soumis plus de 3 000 requêtes à différents assistants populaires : ChatGPT, Google Gemini, Microsoft Copilot, Claude, et Perplexity. L’étude, menée dans 14 langues, révèle notamment que :
- 31% des réponses comportent des problèmes de sourcing (sources inexistantes ou erronées).
- 20% contiennent des inexactitudes factuelles majeures (événements mal datés, citations mal attribuées).
Certains assistants comme Gemini se distinguent par leurs difficultés à citer correctement les sources ; d’autres, comme ChatGPT ou Claude, oscillent selon la version utilisée.
Mésinformation instantanée : un nouveau défi pour le public… et les médias
À l’heure où selon le Reuters Institute, déjà 15 % de la génération Z s’en remet aux chatbots pour suivre l’actualité, le risque d’avaler sans recul une information biaisée explose. Beaucoup d’assistants n’affichent pas clairement leurs sources ou confondent faits et opinions. Un test simple le prouve : interroger plusieurs IA sur le « dernier accord sur le plafond de la dette américaine » donne des résultats variables — seule la réponse de Claude, concise et rigoureuse sur la chronologie, sort véritablement du lot. D’autres modèles comme ChatGPT, en citant des articles fictifs datés du futur, minent leur propre crédibilité.
Mieux utiliser l’IA pour s’informer : quelques réflexes essentiels
Face à ces limites évidentes, comment se protéger ? Il vaut mieux formuler explicitement ses demandes (« Donne-moi les liens vers des sources fiables récentes »), exiger un horodatage précis (« Au 23 octobre, où en est-on ? »), croiser systématiquement les réponses entre plusieurs IA et ne jamais se contenter d’un simple résumé. Garder en tête que ces outils ne remplacent pas la vérification humaine demeure crucial.
L’enjeu dépasse le simple confort individuel : c’est désormais la confiance collective envers l’information qui vacille. Les éditeurs voient leur audience aspirée par ces interfaces automatisées, souvent au prix d’une déformation du travail original. Tant que ces systèmes peineront à garantir transparence et fiabilité en temps réel, il restera prudent de revenir aux sources primaires – quitte à demander explicitement : « Mène-moi à l’article original. »