Anthropic représenterait une menace pour la sécurité nationale américaine

Image d'illustration. AnthropicAnthropic / PR-ADN
Le département de la Défense alerte sur les dangers que représente Anthropic pour la sécurité nationale, estimant que ses activités ou technologies pourraient compromettre des intérêts stratégiques ou exposer le pays à des menaces jugées inacceptables.
Tl;dr
- Le Pentagone veut couper l’accès d’Anthropic à ses infrastructures, invoquant un risque pour la sécurité nationale.
- Le conflit est né du refus d’Anthropic d’utiliser ses modèles pour la surveillance massive ou des usages militaires sensibles.
- Anthropic conteste la décision en justice, avec le soutien de grands acteurs technologiques, face à un enjeu économique majeur.
Des tensions croissantes entre Anthropic et le Pentagone
Face à la défiance du Département de la Défense, les relations avec l’éditeur d’intelligence artificielle Anthropic connaissent un net refroidissement. Le ministère a récemment formalisé, dans un dossier judiciaire, son intention de couper tout accès de la société à ses infrastructures stratégiques. Une décision motivée par ce qu’il qualifie d’« risque inacceptable » pesant sur sa chaîne d’approvisionnement.
L’origine du bras de fer judiciaire
À l’origine, c’est le refus catégorique d’Anthropic d’autoriser l’utilisation de ses modèles pour des opérations de surveillance massive ou le développement d’armes autonomes qui a attisé la discorde. En réaction au classement « risque chaîne logistique », l’entreprise a saisi la justice, contestant une étiquette susceptible de mettre en péril une part substantielle de son activité.
Entre arguments sécuritaires et craintes du ministère
Dans ses écritures, le secrétaire à la Défense, Pete Hegseth, souligne avoir intégré aux contrats une clause donnant toute latitude à l’administration pour exploiter les technologies développées « à toute fin légale ». Le refus d’Anthropic fait planer, selon lui, un doute sur sa fiabilité comme partenaire dans des programmes « hautement sensibles ». Le ministère n’écarte pas que l’entreprise puisse décider unilatéralement de désactiver ou modifier son intelligence artificielle si elle estime que ses principes sont bafoués : « Les systèmes IA sont vulnérables à la manipulation et Anthropic pourrait altérer leur comportement si ses “lignes rouges” étaient franchies », s’inquiète-t-il. Ce niveau d’incertitude représente pour le Pentagone un risque inadmissible pour la sûreté nationale.
Soutiens extérieurs et enjeux économiques majeurs
Cette position tranchée a conduit l’administration Trump à interdire à toutes les agences fédérales de recourir aux solutions d’Anthropic. La société américaine demande aujourd’hui à la justice une suspension temporaire du bannissement pendant la procédure. Outre cette bataille juridique, elle redoute une perte colossale en chiffre d’affaires, estimée à plusieurs milliards de dollars, si ce statut venait à être confirmé.
Certains géants technologiques tels que Microsoft, Google ou encore OpenAI ont d’ailleurs choisi de soutenir publiquement leur homologue par voie de mémoires déposés devant le tribunal. Un front commun qui illustre combien la question des usages militaires de l’intelligence artificielle cristallise désormais les tensions au sein même du secteur.