Google Gemini transforme l’administration du Pentagone

Image d'illustration. Google GeminiADN
La firme de Mountain View met à disposition du Pentagone des agents d’intelligence artificielle reposant sur Gemini, son modèle d’IA avancé.
Tl;dr
- Le Pentagone modernise rapidement ses outils numériques avec l’IA, déjà adoptée par plus d’un million de civils et militaires.
- Des assistants intelligents automatiseront des tâches administratives et pourront bientôt être personnalisés par les utilisateurs.
- La généralisation de l’IA soulève des questions éthiques et des tensions avec certaines entreprises technologiques sur son usage militaire.
Le virage du Pentagone vers l’intelligence artificielle
Le département de la Défense des États-Unis poursuit sa modernisation à marche forcée. Depuis décembre 2025, plus de 1,2 million de collaborateurs civils et militaires ont déjà accédé au chatbot d’IA développé par Google, via le portail GenAI.mil. Cette plateforme a permis l’exécution de 40 millions de requêtes uniques et la soumission de 4 millions de documents, signe que l’adoption des outils numériques s’accélère nettement au sein du ministère.
Lancement des agents Gemini et automatisation croissante
Dans ce contexte, Google déploie désormais ses agents d’IA Gemini auprès des quelque trois millions d’employés du département. Selon les propos d’Emil Michael, secrétaire adjoint à la recherche et à l’ingénierie, ces assistants interviendront d’abord sur des réseaux non classifiés, avec des discussions déjà engagées pour leur extension aux systèmes classifiés et hautement sécurisés. Huit agents préconfigurés viendront automatiser diverses tâches administratives comme des résumés de réunions, une élaboration budgétaire ou encore une vérification d’actions vis-à-vis de la stratégie nationale de défense.
Par ailleurs, le vice-président de Google, Jim Kelly, a indiqué que les utilisateurs pourront bientôt créer leurs propres agents sur mesure en langage naturel.
Sensibilisation interne et enjeux éthiques persistants
Toutefois, une ombre subsiste : alors que la montée en puissance est manifeste, seuls 26 000 employés ont suivi une formation dédiée à l’IA depuis décembre ; les prochaines sessions affichent toutefois complet. Cette dynamique témoigne d’une mobilisation interne croissante.
En parallèle, la généralisation de l’intelligence artificielle réactive des débats éthiques brûlants. Le bras de fer récent entre le Pentagone et la société américaine Anthropic, qui refuse toute adaptation susceptible d’autoriser la surveillance domestique ou l’usage autonome des armes par ses modèles IA, en est un exemple frappant. Considérée désormais comme un « risque pour la chaîne logistique », selon le département, l’entreprise entend contester cette classification devant les tribunaux. De leur côté, près d’un millier de salariés chez Google, mais aussi chez OpenAI, ont signé une lettre publique exhortant leurs directions à préserver ces « garde-fous. »
Nouveaux partenariats et tensions historiques autour de l’IA militaire
Dans le sillage du différend avec Anthropic, le ministère américain a conclu des accords avec OpenAI et xAI, réservés à certains réseaux restreints. Rappelons enfin que le passé récent n’a pas été sans remous chez Google. En 2018, après une vague de contestation liée au projet Maven, un programme exploitant l’IA pour analyser des vidéos issues de drones, l’entreprise avait renoncé à poursuivre ce contrat controversé avec le Pentagone. Depuis lors, elle a discrètement assoupli ses propres « principes sur l’IA », ouvrant ainsi la voie à une collaboration élargie avec les autorités américaines dans le secteur sensible de la défense.
En somme, alors que les partenariats technologiques se multiplient au sein du Pentagone, la question du juste équilibre entre efficacité opérationnelle et responsabilité éthique demeure plus vive que jamais.