- Pourquoi le Pentagone a ciblé Anthropic
- Le front inattendu : quand des employés d’OpenAI et DeepMind prennent position
- L’argument des garde-fous privés en l’absence de législation
- Les implications pour l’ensemble de l’industrie
- Ce que révèle la fracture de la Silicon Valley
- FAQ — Anthropic vs Pentagone : les questions clés
Anthropic face au Pentagone : quand l’IA militaire divise la Silicon Valley
Vous pensez peut-être que les guerres de l’intelligence artificielle se jouent entre grandes puissances technologiques, à coups de benchmarks et de milliards de dollars. Il en existe une autre, moins médiatisée, qui se déroule dans les couloirs juridiques de Washington : celle qui oppose Anthropic, créateur du modèle de langage Claude, au Département de Défense américain sur la question fondamentale des usages militaires de l’IA. Au coeur de ce litige, une désignation lourde de conséquences — "risque pour la chaîne d’approvisionnement" — et un soutien inattendu d’employés d’OpenAI et de Google DeepMind qui transforme ce conflit en signal d’alarme pour toute l’industrie.
L’affaire cristallise une tension que la Silicon Valley repoussait depuis des années : jusqu’où un acteur privé peut-il refuser de collaborer avec l’appareil militaire, et sur quels fondements éthiques peut-il légitimement s’appuyer en l’absence de cadre légal public ?

Pourquoi le Pentagone a ciblé Anthropic
La mécanique de l’affrontement est à la fois administrative et symbolique. En 2024, le Département de Défense a engagé des négociations avec plusieurs fournisseurs d’IA pour intégrer leurs modèles dans des systèmes d’aide à la décision, de renseignement et, potentiellement, d’armement autonome. Anthropic a refusé certaines conditions de ces contrats, invoquant ses propres règles d’utilisation — les fameuses usage policies — qui interdisent explicitement l’emploi de Claude dans des contextes létaux sans supervision humaine adéquate.
La réponse du Pentagone ne s’est pas faite attendre. La désignation d’"entité à risque pour la chaîne d’approvisionnement" n’est pas anodine : elle place Anthropic dans une catégorie normalement réservée aux fournisseurs suspects de compromission étrangère ou de défaillance technique. Juridiquement, cette étiquette peut entraîner :
- l’exclusion des appels d’offres fédéraux pour une durée indéterminée
- la suspension des partenariats avec d’autres agences gouvernementales
- un effet de signalement négatif auprès des investisseurs institutionnels et des partenaires commerciaux
Ce qui est remarquable, c’est la nature du grief : Anthropic n’est pas accusé de fraude, d’espionnage ou d’incompétence technique. Il est sanctionné pour avoir appliqué ses propres garde-fous éthiques, ce qui constitue un précédent d’une portée considérable.

Le front inattendu : quand des employés d’OpenAI et DeepMind prennent position
L’affaire aurait pu rester un contentieux administratif confidentiel. Elle a pris une dimension inédite lorsqu’une lettre ouverte, signée par des chercheurs et ingénieurs travaillant chez OpenAI et Google DeepMind — concurrents directs d’Anthropic — a circulé pour soutenir la position de l’entreprise.
Ce geste, inhabituel dans un secteur où la compétition est féroce et les clauses de confidentialité omniprésentes, mérite qu’on s’y arrête. Les signataires n’expriment pas une solidarité corporatiste ; ils formulent un argument de principe : en l’absence de législation publique contraignante sur les usages militaires de l’IA, les politiques internes des entreprises constituent le seul rempart opérationnel contre des dérives potentiellement irréversibles.
L’argument porte sur plusieurs niveaux :
- Les gouvernements démocratiques n’ont pas encore produit de cadre légal précis réglementant l’autonomie des systèmes d’IA dans les décisions létales
- Les traités internationaux existants (comme les Conventions de Genève) n’ont pas été adaptés à l’ère des systèmes autonomes
- Dans ce vide normatif, sanctionner une entreprise pour avoir appliqué ses propres règles revient à décourager toute forme d’autoréglementation responsable
Il y a dans cette démonstration une ironie que Sylvain Tesson lui-même apprécierait : c’est l’industrie privée, souvent accusée de courir après le profit au détriment de l’éthique, qui se retrouve à plaider pour des garde-fous que les États n’ont pas su construire.
L’argument des garde-fous privés en l’absence de législation
Le coeur de la défense d’Anthropic repose sur une réalité inconfortable pour les États démocratiques : le droit international humanitaire et les législations nationales accusent un retard structurel face à la vitesse de développement de l’IA militaire.
Anthropic est fondé sur une doctrine explicite de "sécurité de l’IA par conception" (AI Safety), qui se matérialise dans la Constitution de Claude — un document public qui hiérarchise les valeurs devant guider le comportement du modèle. Parmi ces valeurs figure l’interdiction de participer à des actions létales sans supervision humaine directe et meaningful.
Les signataires de la lettre ouverte font valoir que cette logique n’est pas une stratégie commerciale déguisée, mais une nécessité structurelle dans un secteur où :
- les modèles de langage avancés peuvent être détournés de leur usage initial très rapidement
- les chaînes de responsabilité dans les systèmes d’armement autonomes sont encore mal définies
- les erreurs algorithmiques dans des contextes létaux n’ont pas de procédure de recours établie
Stuart Russell, l’un des théoriciens majeurs de la sécurité de l’IA, a depuis longtemps averti que déléguer des décisions létales à des systèmes d’IA sans cadre éthique robuste constitue un risque existentiel documenté. Le conflit Anthropic-Pentagone illustre, en temps réel, ce que signifie ignorer cet avertissement.
Les implications pour l’ensemble de l’industrie
Ce précédent dépasse largement le cas d’Anthropic. Il pose une question structurante pour l’industrie mondiale de l’IA : une entreprise peut-elle légalement résister à une réquisition étatique de ses technologies, fût-elle américaine, au nom de principes éthiques internes ?
La réponse est pour l’instant suspendue dans le vague juridique. Mais les implications pratiques sont déjà visibles. Si le Pentagone maintient sa désignation et qu’elle est validée par les tribunaux, le signal envoyé à l’ensemble du secteur est sans ambiguïté : les politiques d’usage responsable peuvent devenir un obstacle commercial que les grandes agences gouvernementales utiliseront comme levier de pression.
Ce scénario aurait plusieurs conséquences prévisibles pour les acteurs de la gouvernance de l’IA :
- Les startups et scale-ups de l’IA pourraient être incitées à affaiblir leurs propres garde-fous pour préserver l’accès aux marchés gouvernementaux
- Les entreprises qui souhaitent maintenir des politiques éthiques strictes devront soit renoncer aux contrats publics, soit accepter une segmentation de leurs modèles (une version "grand public" et une version "militaire") aux risques techniques et réputationnels que cela implique
- La concentration du pouvoir de définir les normes d’usage de l’IA se déplacerait encore davantage vers les États, au détriment des cadres multilatéraux en construction
L’Union européenne, dont le règlement sur l’IA (AI Act) prévoit des dispositions spécifiques sur les systèmes à haut risque, observe ce contentieux américain avec attention. Plusieurs juristes spécialisés soulignent que l’affaire Anthropic-Pentagone pourrait accélérer les débats sur l’inclusion explicite des usages militaires dans les réglementations civiles.
Ce que révèle la fracture de la Silicon Valley
Il serait trop simple de lire cet épisode comme une opposition binaire entre ingénieurs pacifistes et militaires belliqueux. La réalité est plus nuancée, et c’est là que réside l’intérêt véritable de l’affaire.
Une partie significative de l’industrie technologique américaine travaille activement avec le Département de Défense — Microsoft, Google (malgré les protestations internes de ses employés lors du projet Maven), Palantir ou encore Scale AI. Le contrat JEDI puis son successeur JWCC ont distribué des milliards à ces acteurs sans que le mot "éthique" figure dans les clauses.
Ce qui est nouveau, c’est que la contestation ne vient plus seulement de la société civile ou d’organisations non gouvernementales, mais de l’intérieur même des entreprises concernées. Des ingénieurs d’OpenAI et de Google DeepMind prenant publiquement position en faveur d’un concurrent signifient quelque chose d’inédit : l’émergence d’une solidarité professionnelle transcendant la compétition commerciale, fondée sur des convictions éthiques partagées sur le devenir de l’IA.
Ce déplacement de la contestation — du citoyen vers l’expert technique — reflète une prise de conscience croissante que les personnes qui construisent ces systèmes comprennent mieux que quiconque les risques qu’ils présentent. Et qu’elles choisissent, dans certains cas, d’en assumer publiquement la responsabilité.
L’enjeu réel de l’affaire Anthropic-Pentagone n’est donc pas seulement juridique. Il est de savoir si les démocraties libérales sont capables de produire, avant qu’il ne soit trop tard, les normes qui permettront de ne pas laisser aux seules entreprises privées — ni aux seules armées — le soin de décider ce que l’intelligence artificielle a le droit de faire à un être humain.
Points clés à retenir
- Anthropic a été désigné "risque pour la chaîne d’approvisionnement" par le Pentagone après avoir refusé des conditions contractuelles contraires à ses politiques d’usage militaire de l’IA.
- Des employés d’OpenAI et de Google DeepMind ont publiquement soutenu Anthropic, argument à l’appui : en l’absence de législation publique, les garde-fous privés sont le seul rempart existant.
- Cette désignation crée un précédent susceptible d’inciter tout le secteur à assouplir ses politiques éthiques pour préserver l’accès aux marchés gouvernementaux.
- Le vide normatif du droit international humanitaire face aux systèmes d’IA autonomes est au coeur du litige.
- L’affaire Anthropic-Pentagone pourrait accélérer les débats législatifs en Europe et aux États-Unis sur l’encadrement des usages militaires de l’IA.
FAQ — Anthropic vs Pentagone : les questions clés
Qu’est-ce que la désignation "risque pour la chaîne d’approvisionnement" signifie concrètement pour Anthropic ?
Elle place Anthropic dans une catégorie de fournisseurs potentiellement exclus des marchés fédéraux américains, avec des conséquences sur ses contrats gouvernementaux existants et futurs, ainsi qu’un effet de signalement négatif auprès des partenaires institutionnels.
Pourquoi des employés d’OpenAI et de Google DeepMind soutiennent-ils un concurrent direct ?
Parce que l’enjeu dépasse la compétition commerciale : si Anthropic est sanctionné pour avoir appliqué ses propres règles éthiques, cela crée un précédent qui menace la capacité de toute entreprise d’IA à maintenir des garde-fous responsables face aux demandes gouvernementales.
Existe-t-il une législation internationale sur l’usage militaire de l’IA ?
Non, à ce jour il n’existe pas de traité international contraignant spécifiquement dédié aux systèmes d’IA autonomes dans les conflits armés. Les débats avancent lentement à l’ONU, mais aucun cadre légal global n’a été adopté.
Quelles entreprises travaillent déjà avec le Pentagone sur des projets d’IA ?
Microsoft, Palantir, Scale AI et Google figurent parmi les principaux fournisseurs technologiques du Département de Défense américain dans le cadre de contrats comme le JWCC (Joint Warfighting Cloud Capability).
Quel rôle joue le règlement européen sur l’IA dans ce débat ?
L’AI Act de l’Union européenne prévoit des dispositions pour les systèmes à haut risque, mais son application aux usages militaires reste limitée. L’affaire Anthropic-Pentagone pourrait néanmoins accélérer les discussions pour y intégrer des dispositions plus explicites.
Qu’est-ce que la "Constitution de Claude" mentionnée dans l’article ?
Il s’agit d’un document public rédigé par Anthropic qui hiérarchise les valeurs et les règles de comportement du modèle Claude, incluant des interdictions explicites de participation à des actions létales sans supervision humaine directe.

Passionnée de maison et de voyage, j’adore partager des idées simples pour rendre le quotidien plus doux, ici comme ailleurs.
Bienvenue chez moi — et sur les routes du monde !



