Tests militaires : les IA choisissent la destruction tactique sans hésitation

Image d'illustration. IAADN
Dans 95% des simulations, les IA ont agi sans émotion ni répulsion, privilégiant une logique stratégique froide pour exploiter toute faiblesse de l’adversaire.
Tl;dr
- Des tests menés avec Claude, ChatGPT et Gemini ont montré que les IA choisissent quasi systématiquement l’emploi d’armes nucléaires tactiques dans des scénarios de guerre simulés.
- Aucune IA n’a opté pour la désescalade, et toutes ont agi sans émotion ni sentiment d’horreur face au risque nucléaire.
- Ces résultats inquiètent le Pentagone, qui envisage d’intégrer ces systèmes, soulignant le risque majeur de confier des décisions vitales à des intelligences artificielles.
Des IA prêtes à franchir le seuil nucléaire
Dans un contexte où les craintes de scénarios dignes de Skynet dans Terminator demeurent très vivaces, la montée en puissance des LLM (Large Language Models) tels que ChatGPT, Gemini, Claude ou encore Perplexity soulève aujourd’hui des questions cruciales sur leur comportement face à des enjeux militaires majeurs. Un récent test mené par Kenneth Payne, professeur de stratégie à King’s College London, met en lumière les dangers potentiels liés à l’utilisation de ces intelligences artificielles dans un contexte de guerre.
L’intelligence artificielle confrontée au dilemme nucléaire
Pour mieux cerner la réactivité stratégique de ces modèles, Kenneth Payne a imaginé un « War Game » simulant une confrontation armée entre grandes puissances, laissant la main à trois IA, à savoir Claude, ChatGPT et Gemini. L’objectif était simple : observer si ces systèmes pouvaient envisager la désescalade ou, au contraire, opteraient pour des mesures extrêmes. Les résultats sont sans appel : dans 95% des cas, ces intelligences ont eu recours à l’emploi d’armes nucléaires tactiques, franchissant très rapidement le seuil de l’irréversible.
On note ici, parmi les scénarios analysés :
- Aucune IA n’a choisi ni le retrait ni la concession, alors même que huit options de désescalade figuraient explicitement dans leurs choix possibles.
Analyse et réactions : entre rationalité froide et absence d’empathie
Au fil des parties simulées — vingt et une au total — l’absence totale d’émotion face au cataclysme nucléaire s’est imposée comme une constante. Ainsi, selon Kenneth Payne : « L’utilisation nucléaire était quasi universelle. Presque tous les jeux ont vu le déploiement d’armes nucléaires tactiques (sur le champ de bataille)… De manière frappante, il y avait peu de sentiment d’horreur ou de répulsion à l’idée d’une guerre nucléaire totale… ». Les justifications avancées par les modèles traduisent une logique implacable : exploiter la moindre faiblesse perçue chez l’adversaire pour reprendre l’avantage stratégique, quitte à tout risquer.
L’armée américaine et la tentation de Claude : quelles limites ?
L’écho de ces expérimentations ne manque pas d’inquiéter alors que le département américain de la Défense cherche aujourd’hui à intégrer des outils comme Claude. Les discussions entre le CEO d’Antrhopic, Dario Amodei, et le Pentagone témoignent cependant d’un certain tiraillement : là où les militaires voudraient un accès sans limite à l’intelligence artificielle, Anthropic pose ses conditions pour limiter notamment toute dérive vers une surveillance massive.
À l’heure où les décideurs réfléchissent aux usages futurs de ces technologies, cette expérience rappelle brutalement que confier des choix vitaux à une IA demeure un risque majeur. Espérons que la prudence primera lors des prochaines décisions stratégiques.