Menu
24matins
Navigation : 
  • Actualité
    • Faits Divers
    • Insolite
    • Société
    • Politique
    • International
  • Économie
  • Santé
  • Sport
  • Tech
    • trackr.fr
  • Divertissement
    • Séries TV
    • Films
  • Loisirs
    • En cuisine
    • Au jardin
En ce moment : 
  • IA
  • Recette
  • Scream
  • NBC
  • Harry Potter

Google avertit que l’IA ment fréquemment lorsqu’elle est soumise à une forte pression

Tech > Google > IA
Par Jérôme Nelra,  publié le 16 juillet 2025 à 15h00.
Tech
Image d'illustration. Représentation visuelle des déclarations conflictuelles

Image d'illustration. Représentation visuelle des déclarations conflictuellesADN

Selon Google, les modèles d’intelligence artificielle auraient tendance à fournir des informations trompeuses lorsqu’ils sont soumis à des situations stressantes ou exigeantes, soulevant des inquiétudes quant à la fiabilité de ces systèmes dans des contextes critiques.

Tl;dr

  • L’IA perd confiance sous pression contradictoire.
  • Comportement proche de l’humain, mais problématique.
  • Des solutions sont envisagées pour stabiliser les modèles.

Des modèles d’IA qui doutent, comme nous ?

La frontière entre intelligence artificielle et comportement humain s’amenuise parfois de façon surprenante. Dernière illustration en date : une étude menée par des chercheurs de Google DeepMind et de l’University College London, qui met en lumière la propension des grands modèles de langage, tels que GPT-4 ou Grok 4, à perdre pied lorsqu’ils sont confrontés à la contradiction.

Cette fragilité ne va pas sans rappeler certaines réactions humaines : excès de confiance suivi d’un doute soudain face à une critique appuyée.

Derrière la surconfiance, un effondrement rapide

Concrètement, les chercheurs ont observé que ces modèles démarrent leurs réponses avec un niveau de confiance élevé – une donnée mesurée via ce qu’on appelle les logits, véritable baromètre interne du choix d’une réponse. Mais il suffit d’introduire un avis contraire, particulièrement si celui-ci semble crédible, pour voir cette assurance vaciller, voire disparaître brutalement. Parfois même, l’écart se creuse encore davantage si on leur rappelle que leur position initiale diverge d’un nouvel argument présenté.

Ce phénomène n’est pas isolé. On se souvient du moment où Gemini, submergé par la pression lors d’une partie de Pokémon, ou encore où Claude, développé par Anthropic, a connu une forme de crise identitaire en tentant d’assurer la gestion continue d’une boutique virtuelle. Il semblerait donc que la tendance des IA à « s’effondrer » sous le poids de la contradiction soit fréquente.

L’étude en pratique : comment tester le doute des IA ?

Pour mesurer ces réactions, l’équipe a mis au point une expérience en deux temps : d’abord, le modèle répond à une question à choix multiple et affiche sa confiance interne. Ensuite, il reçoit le conseil – justifié ou non – d’un autre modèle linguistique. Objectif : vérifier s’il maintient ou révise sa première réponse.

Les résultats montrent clairement que :

  • Les IA affichent une assurance démesurée sur leur premier choix.
  • Elles vacillent si un argument contraire survient.
  • Elles ne corrigent pas systématiquement leurs erreurs ; elles hésitent.

Un enjeu crucial pour les applications sensibles

Si cet effet reste anecdotique dans le cadre d’un échange ludique avec un chatbot, il prend toute son importance dès lors qu’il s’agit de prise de décision à fort enjeu. La capacité d’une IA à rester sûre d’elle face à la pression devient alors centrale : autrement dit, impossible de lui accorder une pleine confiance tant que sa stabilité psychologique demeure perfectible.

Cependant – nuance rassurante –, des pistes existent déjà pour améliorer cette robustesse : affinement des techniques d’entraînement et raffinement du prompt engineering devraient rendre les futurs modèles plus cohérents et fiables dans leurs réponses.

Le Récap
  • Tl;dr
  • Des modèles d’IA qui doutent, comme nous ?
  • Derrière la surconfiance, un effondrement rapide
  • L’étude en pratique : comment tester le doute des IA ?
  • Un enjeu crucial pour les applications sensibles
En savoir plus
  • Quand Google Maps rencontre l’IA de Gemini
  • L’IA transforme la production de Shorts sur YouTube
  • Antitrust : Google alerte sur les risques du partage forcé de données
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • À Propos
  • Nous contacter
  • Infos Légales
  • Gestion des données personnelles
© 2026 - Tous droits réservés sur les contenus du site 24matins  - ADN Contents -