Démission chez OpenAI : quand l’IA militaire divise le secteur tech

avril 15, 2026
Léna Roussel
Ecris par Léna Roussel

Passionnée de maison et de voyage, j’adore partager des idées simples pour rendre le quotidien plus doux, ici comme ailleurs. Bienvenue chez moi — et sur les routes du monde !

Démission chez OpenAI : quand l’IA militaire divise le secteur tech

Vous pensiez que les débats éthiques autour de l’intelligence artificielle se limitaient aux salles de conférence et aux tribunes académiques ? La démission de Caitlin Kalinowski d’OpenAI, intervenue au printemps 2025, a démontré que ces tensions atteignent désormais les plus hauts échelons des entreprises qui façonnent l’IA mondiale. En cause : le partenariat controversé entre OpenAI et le Département de la Défense américain, communément appelé le Pentagone, qui a provoqué une onde de choc dans l’ensemble du secteur technologique. La question n’est plus théorique. Elle est institutionnelle, humaine, et profondément politique.


La démission de Caitlin Kalinowski, symptôme d’une fracture interne

Caitlin Kalinowski occupait un poste stratégique chez OpenAI, à la tête des équipes chargées du développement matériel, notamment des infrastructures liées à la réalité virtuelle et aux dispositifs physiques embarquant de l’IA. Sa démission n’a pas été discrète. Dans un message publié sur les réseaux professionnels, elle a clairement mentionné son désaccord avec la nouvelle orientation stratégique de l’entreprise, en particulier ses engagements croissants avec l’appareil militaire américain.

Ce qui rend cette démission significative, c’est moins le profil de la personne que ce qu’elle révèle : des salariés d’OpenAI commencent à voter avec leurs pieds. Dans une industrie où les talents sont rares et les salaires astronomiques, quitter un employeur au sommet de sa valorisation n’est pas un geste anodin. C’est un signal.

Le contrat avec le Pentagone, au coeur du malaise

OpenAI a officialisé en 2025 un partenariat avec le Département de la Défense américain portant sur l’utilisation de ses modèles de langage dans des contextes opérationnels militaires. Les contours précis de cet accord restent partiellement opaques, mais plusieurs applications ont été évoquées publiquement :

  • L’analyse de données de surveillance à grande échelle, potentiellement sans supervision judiciaire
  • Le soutien à des systèmes de prise de décision autonome dans des contextes de conflit
  • L’intégration de modèles d’IA dans des chaînes de commandement impliquant des armes autonomes

Ces trois dimensions concentrent l’essentiel des critiques formulées par les détracteurs internes et externes. Sur le plan juridique, l’absence de cadre de supervision judiciaire soulève des questions fondamentales relatives aux droits civiques. Sur le plan éthique, la délégation de décisions létales à des algorithmes représente une rupture avec les principes fondateurs qu’OpenAI avait publiquement défendus.

Sam Altman, PDG d’OpenAI, a défendu cette orientation en arguant que refuser de travailler avec les institutions démocratiques revenait à laisser le champ libre à des acteurs moins scrupuleux. L’argument est connu. Il n’a pas convaincu tout le monde en interne.

Plus de 1 000 employés signent une lettre ouverte

La démission de Kalinowski n’est pas un acte isolé. Elle s’inscrit dans un mouvement plus large qui a vu plus de 1 000 employés d’OpenAI et de Google cosigner une lettre ouverte adressée à leurs directions respectives, demandant une transparence accrue sur les contrats militaires et la mise en place de mécanismes de refus individuel pour les projets jugés contraires à l’éthique.

Ce document, dont l’existence a été relayée par plusieurs médias spécialisés, formule des exigences précises :

  • La publication d’une liste exhaustive des contrats gouvernementaux impliquant des applications à double usage civil-militaire
  • La création d’un comité éthique indépendant disposant d’un droit de veto sur certains projets
  • La protection juridique des lanceurs d’alerte internes qui signaleraient des dérives

L’initiative rappelle, dans sa forme et son ampleur, la fronde qui avait secoué Google en 2018 autour du Projet Maven, un contrat avec l’armée américaine portant sur l’analyse d’images par IA à des fins de ciblage. À l’époque, plusieurs milliers d’employés avaient protesté, forçant Google à ne pas renouveler le contrat. L’histoire semble vouloir se répéter, avec une industrie plus mature et des enjeux encore plus élevés.

Sam Altman face à ses contradictions

Sam Altman se trouve dans une position délicate. Il a construit la réputation publique d’OpenAI sur un discours de responsabilité, de transparence et d’alignement des valeurs humaines. La mission officielle de l’organisation — "s’assurer que l’intelligence artificielle générale bénéficie à l’humanité entière" — figure toujours en tête du site institutionnel.

La réalité opérationnelle raconte une autre histoire. OpenAI a abandonné en 2023 son statut d’organisation à but non lucratif pour évoluer vers une structure hybride permettant d’accueillir des investisseurs privés. Ce pivot économique a logiquement entraîné un pivot stratégique, dont le partenariat avec le Pentagone est l’une des manifestations les plus visibles.

Altman défend cette cohérence avec une certaine aisance rhétorique : les démocraties ont besoin d’IA fiables pour résister aux régimes autoritaires. Ce raisonnement géopolitique est défendable. Il occulte néanmoins la question centrale : qui décide des garde-fous, et selon quelles procédures ?

La position d’Anthropic : un modèle concurrent, une éthique revendiquée

Il serait incomplet d’analyser cette crise sans évoquer Anthropic, l’entreprise cofondée par Dario Amodei et sa sœur Daniela Amodei, tous deux anciens dirigeants d’OpenAI qui avaient précisément quitté la structure en 2021 pour des raisons éthiques.

Anthropic a jusqu’ici maintenu une position plus restrictive vis-à-vis des applications militaires directes. Sa politique d’utilisation acceptable exclut explicitement les applications conçues pour nuire à des personnes ou destinées à des systèmes d’armes autonomes. Cette ligne de conduite lui a valu une certaine crédibilité auprès des chercheurs en sécurité de l’IA, même si elle ne l’a pas empêchée de signer des contrats avec des agences gouvernementales américaines à vocation non létale.

La comparaison entre les deux entreprises est instructive. Elle montre qu’il existe plusieurs façons d’aborder le marché public et militaire, et que la position d’OpenAI n’est pas une fatalité industrielle, mais un choix stratégique assumé.

Les enjeux éthiques que le secteur ne peut plus esquiver

La démission OpenAI Pentagone intelligence artificielle éthique cristallise un débat plus large que ne le laisse entendre la couverture médiatique immédiate. Trois questions structurelles se dégagent de cette séquence.

La première concerne la gouvernance interne des grandes entreprises technologiques. Qui, au sein d’OpenAI ou de ses concurrents, dispose d’une autorité réelle pour refuser un contrat lucratif au nom de l’éthique ? Les comités consultatifs existants ont montré leurs limites, comme l’illustre la dissolution du conseil de sécurité d’OpenAI en 2023.

La deuxième question touche à la responsabilité juridique. Lorsqu’un algorithme contribue à une décision militaire ayant des conséquences létales, qui est légalement responsable ? Les législations nationales et internationales n’ont pas encore tranché. Le droit humanitaire international exige un contrôle humain significatif sur les armes létales, mais la définition de ce contrôle reste contestée dès lors que des systèmes automatisés sont impliqués.

La troisième question est celle de la concurrence régulatoire entre États. Si les entreprises américaines refusent de travailler avec leurs institutions militaires, les technologies seront développées ailleurs, potentiellement dans des cadres moins contraignants. Cet argument, souvent avancé pour justifier les partenariats défense-tech, mérite d’être pris au sérieux sans pour autant être utilisé comme blanc-seing permanent.

Ce que révèle la mobilisation des employés

Le fait que plus de 1 000 professionnels de l’IA aient accepté de cosigner une lettre ouverte en sachant que leurs noms seraient associés à une critique publique de leur employeur n’est pas anodin. Cela dit quelque chose sur l’état d’esprit d’une génération de développeurs et de chercheurs qui ont rejoint ces entreprises avec une certaine vision de leur rôle.

Ces salariés ne sont pas des militants isolés. Beaucoup sont titulaires de doctorats en apprentissage automatique, en philosophie de l’esprit ou en droit de la technologie. Ils ont une compréhension technique fine des systèmes qu’ils développent, et c’est précisément cette compréhension qui les rend anxieux face aux applications militaires non bornées.

La mobilisation collective soulève aussi une question de pouvoir : dans quelle mesure les employés d’une entreprise privée peuvent-ils influencer les orientations stratégiques de leur employeur ? Les réponses varient selon les entreprises. Chez Google, en 2018, la pression interne avait été déterminante. Chez OpenAI en 2025, le résultat reste à écrire.

Points clés à retenir

  • Caitlin Kalinowski a démissionné d’OpenAI en désaccord avec le partenariat de l’entreprise avec le Département de la Défense américain.
  • Plus de 1 000 employés d’OpenAI et de Google ont signé une lettre ouverte réclamant transparence et garde-fous éthiques sur les contrats militaires.
  • Les principales craintes portent sur la surveillance sans supervision judiciaire, les armes autonomes et la délégation algorithmique de décisions létales.
  • Sam Altman défend le partenariat en invoquant la responsabilité géopolitique des démocraties technologiques.
  • Anthropic, fondée par d’anciens cadres d’OpenAI, maintient une politique plus restrictive sur les applications militaires directes.

La vraie rupture que ce moment impose au secteur est peut-être celle-ci : il ne suffit plus d’avoir une charte éthique sur un site institutionnel. Les entreprises qui développent les systèmes d’IA les plus puissants du monde sont désormais sommées de démontrer que leurs principes résistent à la pression du marché — et du Pentagone.


FAQ — Démission OpenAI et IA militaire

Pourquoi Caitlin Kalinowski a-t-elle démissionné d’OpenAI ?
Caitlin Kalinowski a publiquement exprimé son désaccord avec le partenariat entre OpenAI et le Département de la Défense américain, estimant que cette orientation contredisait les engagements éthiques fondateurs de l’entreprise. Elle dirigeait les équipes de développement matériel avant son départ.

Quel est le contenu du partenariat entre OpenAI et le Pentagone ?
Le partenariat entre OpenAI et le Pentagone porte sur l’utilisation de modèles de langage avancés dans des contextes opérationnels militaires, incluant potentiellement l’analyse de données de surveillance, le soutien à la prise de décision autonome et l’intégration dans des systèmes d’armement. Les détails complets restent partiellement confidentiels.

Qu’est-ce que la lettre ouverte signée par plus de 1 000 employés d’OpenAI et Google ?
Il s’agit d’un document collectif cosigné par des employés d’OpenAI et de Google demandant à leurs directions de publier la liste des contrats gouvernementaux à double usage, de créer des comités éthiques indépendants et de protéger les lanceurs d’alerte internes dénonçant des dérives éthiques.

Quelle est la différence entre la position d’OpenAI et celle d’Anthropic sur l’IA militaire ?
OpenAI a choisi de nouer un partenariat actif avec le Département de la Défense, tandis qu’Anthropic exclut explicitement dans sa politique d’utilisation les applications conçues pour nuire à des personnes ou alimenter des systèmes d’armes autonomes. Cette divergence reflète des choix stratégiques distincts, pas une contrainte industrielle commune.

Quelles lois encadrent l’utilisation de l’IA dans les décisions militaires létales ?
Le droit humanitaire international impose un contrôle humain significatif sur les armes létales, mais la définition de ce contrôle dans un contexte algorithmique reste très débattue. Aucune législation internationale contraignante ne réglemente spécifiquement les systèmes d’armes autonomes à intelligence artificielle à ce jour.

L’affaire OpenAI-Pentagone est-elle comparable au Projet Maven de Google ?
Les parallèles sont réels : dans les deux cas, un contrat militaire a provoqué une mobilisation interne significative. En 2018, la pression des employés avait conduit Google à ne pas renouveler le Projet Maven. La situation chez OpenAI en 2025 présente des similitudes, mais se déroule dans un contexte où les entreprises sont plus intégrées aux marchés publics de défense.