Quand le Pentagone tourne le dos à Anthropic pour Google Gemini

avril 1, 2026
Léna Roussel
Ecris par Léna Roussel

Passionnée de maison et de voyage, j’adore partager des idées simples pour rendre le quotidien plus doux, ici comme ailleurs. Bienvenue chez moi — et sur les routes du monde !

Quand le Pentagone tourne le dos à Anthropic pour Google Gemini

Vous assistez, en temps réel, à l’une des ruptures contractuelles les plus révélatrices de l’ère de l’intelligence artificielle militaire. Le Département de Défense américain a choisi de se détourner d’Anthropic — l’un des acteurs les plus en vue de la Silicon Valley — pour confier ses infrastructures d’IA à Google Gemini. Derrière ce pivot stratégique se cache un désaccord de fond : jusqu’où une entreprise technologique peut-elle imposer ses garde-fous éthiques à la première puissance militaire mondiale ? La réponse, apparemment, est : pas si loin.

L’affaire dépasse largement la simple querelle commerciale. Elle cristallise les tensions profondes entre l’ambition numérique du Pentagone et les principes fondateurs de certaines entreprises d’IA qui, ayant promis au monde de "faire le bien", découvrent que le bien du Département de Défense n’est pas toujours compatible avec le leur.


Le conflit Anthropic-Pentagone : quand les clauses éthiques deviennent des obstacles opérationnels

Le différend entre Anthropic et le Pentagone prend racine dans les conditions d’utilisation qu’Anthropic avait tenté d’imposer à son modèle Claude. La société, cofondée par Dario Amodei et sa sœur Daniela Amodei après leur départ fracassant d’OpenAI, s’est construite sur une philosophie d’IA constitutionnelle — un cadre interne censé contraindre le comportement de ses modèles selon des principes éthiques explicites.

Le problème, pour le Pentagone, réside précisément dans ces principes. Anthropic refusait que ses technologies soient utilisées à des fins de surveillance de masse ou pour alimenter des systèmes d’armes autonomes. Des restrictions qui, dans la bouche d’une startup de San Francisco, sonnent comme du bon sens. Dans les oreilles d’un état-major chargé de gérer trois millions d’agents et des opérations sur plusieurs théâtres simultanés, elles ressemblent plutôt à une entrave opérationnelle.

Le contrat en jeu : environ 200 millions de dollars, une somme qui illustre à elle seule l’appétit du Département de Défense pour les technologies d’IA générative. Ce contrat, désormais menacé dans sa forme initiale, représentait pour Anthropic une validation institutionnelle majeure — et pour le Pentagone, une dépendance potentielle vis-à-vis d’un partenaire dont les valeurs ne s’alignaient pas entièrement sur ses missions.

Les points de friction identifiés se concentrent sur plusieurs usages jugés non négociables par les militaires :

  • L’analyse prédictive de comportements à grande échelle, assimilée à de la surveillance de masse par Anthropic
  • L’intégration de modèles décisionnels dans des systèmes d’armement semi-autonomes
  • Le traitement de données issues de capteurs militaires sans supervision humaine suffisante

Google Gemini s’impose comme partenaire de substitution

Pendant qu’Anthropic tenait bon sur ses principes, Google avançait ses pions avec une pragmatique efficacité. Le déploiement de Google Gemini au sein du Département de Défense s’est opéré à une échelle qui force le respect — ou l’inquiétude, selon le prisme philosophique que l’on adopte.

Les chiffres sont édifiants : 1,2 million d’utilisateurs au sein des forces armées américaines ont déjà eu recours à Gemini dans le cadre de leurs activités professionnelles. Ces agents ont généré pas moins de 40 millions de prompts — autant d’interactions avec un système d’IA qui, contrairement à Claude, accepte de jouer le jeu des contraintes opérationnelles militaires sans se plaindre.

Google n’en est pas à son premier contrat avec la défense américaine, malgré la fronde interne que le projet Maven avait provoquée en 2018. À l’époque, des milliers d’ingénieurs avaient signé une pétition contre l’utilisation de l’IA pour analyser des images de drones militaires. Certains avaient démissionné. Google avait reculé. Huit ans plus tard, le géant de Mountain View semble avoir digéré ces turbulences internes — ou simplement décidé que les contrats gouvernementaux valaient bien quelques frictions avec ses équipes.

Les applications concrètes déployées pour les trois millions d’agents du Département de Défense couvrent un spectre large :

  • Rédaction et synthèse de documents administratifs et opérationnels
  • Analyse de renseignements et traitement de volumes massifs d’informations
  • Assistance à la planification logistique et à la gestion des ressources humaines
  • Support aux décisions tactiques dans des environnements complexes

L’IA dans la défense américaine : une transformation numérique sans précédent

Le pivot vers Google Gemini s’inscrit dans une transformation bien plus profonde de l’appareil militaire américain. Le Pentagone a officiellement fait de l’intégration de l’intelligence artificielle une priorité stratégique de premier rang, reconnaissant que la supériorité technologique future ne se mesurera plus seulement en chars d’assaut ou en porte-avions, mais en capacités de traitement de données et en vitesse décisionnelle.

L’Agence américaine pour les projets de recherche avancée de défense (DARPA) multiplie les programmes liés à l’IA depuis plusieurs années. La National Security Commission on Artificial Intelligence, présidée par l’ancien CEO de Google Eric Schmidt, avait dès 2021 sonné l’alarme dans un rapport fleuve : les États-Unis devaient intégrer massivement l’IA dans leur appareil de défense, sous peine de perdre leur avance stratégique face à la Chine.

Ce contexte géopolitique explique en partie l’impatience du Pentagone face aux restrictions d’Anthropic. Quand on vous dit que votre adversaire principal — en l’occurrence la Chine — n’impose aucune contrainte éthique à ses systèmes d’IA militaires, les scrupules de votre fournisseur californien paraissent soudainement bien encombrants.

La tension entre innovation et garde-fous n’est pourtant pas réductible à une simple friction commerciale. Elle touche à des questions fondamentales que les démocraties libérales devront résoudre : qui décide des limites éthiques de l’IA militaire ? Les entreprises qui la développent ? Les gouvernements qui la déploient ? Des instances internationales qui, pour l’heure, n’existent pas sous une forme crédible ?

Les enjeux éthiques que personne ne veut vraiment trancher

La position d’Anthropic mérite d’être examinée sans condescendance. L’entreprise n’a pas imposé ses restrictions par caprice ou par goût de la publicité vertueuse. Son modèle de gouvernance interne repose sur l’idée que certains usages de l’IA sont intrinsèquement risqués, quelle que soit la légitimité de l’acteur qui les commande.

La question de la surveillance de masse est particulièrement délicate. L’IA permet aujourd’hui d’agréger et d’analyser des données comportementales à une échelle et une vitesse qui rendent caduques toutes les protections juridiques traditionnelles. Ce qu’un juge devait autoriser après examen d’un dossier peut désormais être accompli algorithmiquement, en temps réel, sur des millions d’individus simultanément.

Les armes autonomes posent un problème d’une autre nature. Si un système d’IA décide seul d’engager une cible, qui porte la responsabilité juridique et morale de cet engagement ? La question n’est pas théorique : des systèmes semi-autonomes sont déjà déployés dans plusieurs armées mondiales, et les conventions internationales sur le sujet restent embryonnaires.

Microsoft, Palantir et d’autres acteurs du secteur technologique ont adopté des postures bien moins restrictives qu’Anthropic face aux contrats militaires. Ce différentiel de positionnement crée une pression concurrentielle évidente : si vous refusez un marché de 200 millions de dollars pour des raisons éthiques, votre concurrent moins scrupuleux le prendra, et l’usage existera quand même — simplement sans vos garde-fous.

Ce que ce pivot révèle sur la géopolitique de l’IA

Le remplacement d’Anthropic par Google Gemini envoie un signal clair aux autres acteurs de l’IA : les contrats militaires américains ne seront pas attribués à ceux qui posent des conditions, mais à ceux qui s’adaptent aux exigences opérationnelles des forces armées.

OpenAI elle-même a assoupli ses règles d’utilisation en 2024 pour permettre des applications militaires, après avoir longtemps maintenu une interdiction explicite. La trajectoire est lisible : à mesure que les enjeux financiers et stratégiques s’amplifient, les lignes rouges éthiques ont tendance à se déplacer.

Le chiffre de 40 millions de prompts générés par les utilisateurs militaires de Gemini n’est pas qu’une statistique de croissance. Il représente 40 millions d’interactions entre des agents gouvernementaux et un système d’IA privé, dans des contextes qui mêlent administration courante et opérations sensibles. La question de la souveraineté des données que ces prompts génèrent — qui les stocke, qui peut les analyser, dans quelles conditions — reste largement en suspens.

L’ironie de la situation mérite d’être relevée : Anthropic a été fondée, entre autres, sur l’idée que l’IA "constitutionnelle" permettrait un développement plus sûr que celui d’OpenAI, jugé trop complaisant avec les désirs des utilisateurs. La voilà écartée d’un contrat majeur précisément parce qu’elle a appliqué ses principes avec cohérence. Il y a dans cette mésaventure une leçon amère sur le rapport entre conviction et marché.


Points clés à retenir

  • Le Pentagone a écarté Anthropic d’un contrat de 200 millions de dollars en raison de restrictions sur la surveillance de masse et les armes autonomes imposées par l’entreprise sur son modèle Claude.
  • Google Gemini a été choisi en remplacement et compte déjà 1,2 million d’utilisateurs au sein des forces armées américaines, pour 40 millions de prompts générés.
  • Le Département de Défense déploie l’IA pour trois millions d’agents, dans des usages allant de la rédaction administrative à l’aide à la décision opérationnelle.
  • Ce pivot illustre une tension structurelle entre les garde-fous éthiques des entreprises d’IA et les exigences opérationnelles de la défense nationale.
  • La question de la souveraineté des données militaires confiées à des systèmes d’IA privés reste entière et non résolue.

FAQ

Pourquoi le Pentagone a-t-il rompu avec Anthropic ?
Le Département de Défense américain a écarté Anthropic en raison des restrictions d’utilisation imposées par l’entreprise sur son modèle Claude. Anthropic interdisait notamment l’usage de son IA pour des applications de surveillance de masse et pour des systèmes d’armes autonomes, deux domaines jugés essentiels par les militaires américains dans leur stratégie d’intégration de l’intelligence artificielle.

Quel contrat était en jeu entre Anthropic et le Pentagone ?
Un contrat d’environ 200 millions de dollars était en négociation entre Anthropic et le Département de Défense. Ce montant témoigne de l’ampleur des investissements américains dans l’IA militaire et de la place stratégique que les modèles de langage occupent désormais dans les opérations de défense.

Combien d’utilisateurs militaires utilisent Google Gemini au Pentagone ?
Selon les données disponibles, 1,2 million d’utilisateurs au sein des forces armées américaines ont recours à Google Gemini dans le cadre de leurs activités professionnelles. Ces agents ont collectivement généré 40 millions de prompts, ce qui illustre l’intégration massive et rapide de cet outil dans le quotidien opérationnel du Département de Défense.

Quelles sont les applications concrètes de l’IA déployée pour les agents du Pentagone ?
Les usages recensés comprennent la rédaction et la synthèse de documents opérationnels, l’analyse de renseignements, le traitement de grands volumes d’informations, le support à la planification logistique et l’assistance à la prise de décision dans des environnements complexes. L’IA est déployée pour les trois millions d’agents du Département de Défense.

Quelle est la différence de positionnement entre Anthropic et Google sur les contrats militaires ?
Anthropic a adopté une politique restrictive sur les usages militaires de son IA, en interdisant la surveillance de masse et les armes autonomes. Google, après avoir reculé sur le projet Maven en 2018, a maintenu et développé ses contrats avec la défense américaine sans conditions comparables. OpenAI a également assoupli ses règles d’utilisation en 2024 pour autoriser des applications militaires.

La question des données générées par les prompts militaires est-elle encadrée ?
C’est l’une des zones d’ombre majeures de ce déploiement. Les 40 millions de prompts générés par des agents gouvernementaux dans des contextes mêlant administration courante et opérations sensibles soulèvent des questions non résolues sur la souveraineté des données, leur stockage et les conditions dans lesquelles elles peuvent être analysées par l’entreprise qui opère le système.