Thinking Machines Lab et Nvidia : l’accord Vera Rubin qui redessine la course à l’IA

mars 22, 2026
Léna Roussel
Ecris par Léna Roussel

Passionnée de maison et de voyage, j’adore partager des idées simples pour rendre le quotidien plus doux, ici comme ailleurs.

Bienvenue chez moi — et sur les routes du monde !

Thinking Machines Lab et Nvidia : l’accord Vera Rubin qui redessine la course à l’IA

Vous observez depuis quelques mois une startup qui n’a pas encore sorti le moindre produit commercial — et pourtant le monde de l’intelligence artificielle la regarde avec une attention soutenue. Thinking Machines Lab, fondée par Mira Murati après son départ fracassant d’OpenAI fin 2024, vient de sceller un accord stratégique pluriannuel avec Nvidia portant sur le déploiement d’1 gigawatt de systèmes Vera Rubin d’ici 2027. Ce chiffre mérite qu’on s’y arrête : un gigawatt de capacité de calcul, c’est l’équivalent de la consommation électrique d’une ville moyenne, entièrement dédié à entraîner et faire tourner des modèles d’IA. L’alliance Thinking Machines Lab alliance Nvidia Vera Rubin n’est pas un simple contrat d’approvisionnement en puces. C’est un pari sur l’architecture même du prochain cycle de l’IA générative — et sur la capacité d’une startup de moins de deux ans à se hisser parmi les acteurs qui comptent.


Ce que représente vraiment 1 gigawatt de compute IA

Pour comprendre l’ampleur de l’accord, il faut d’abord saisir ce que signifie concrètement un gigawatt de compute dans le contexte de l’intelligence artificielle.

L’entraînement d’un grand modèle de langage repose sur des milliers de processeurs graphiques fonctionnant en parallèle pendant des semaines, parfois des mois. Cette phase, appelée entraînement, consomme des quantités d’énergie considérables : on estime que l’entraînement de GPT-4 a nécessité plusieurs dizaines de mégawatts pendant plusieurs mois. Un gigawatt, c’est mille fois un mégawatt.

L’autre phase critique est l’inférence — le moment où un modèle déjà entraîné répond à vos requêtes en temps réel. Elle est moins gourmande par unité, mais à l’échelle de millions d’utilisateurs simultanés, elle représente la part qui explose dans les budgets d’infrastructure des grandes plateformes IA.

L’accord Thinking Machines-Nvidia couvre les deux dimensions :

  • Infrastructure d’entraînement de nouveaux modèles fondamentaux sur les systèmes Vera Rubin
  • Infrastructure d’inférence pour le déploiement commercial à grande échelle
  • Accès prioritaire à la prochaine génération d’architecture GPU Nvidia avant sa disponibilité générale

L’architecture Vera Rubin : la prochaine frontière de Nvidia

Vera Rubin est le nom de code de la prochaine génération de GPU de Nvidia, attendue pour 2027, qui succédera à la plateforme Blackwell actuellement déployée chez les grands hyperscalers. Elle porte le nom de l’astronome américaine Vera Cooper Rubin, qui a contribué à établir l’existence de la matière noire — un choix qui n’est pas sans ironie pour une puce destinée à alimenter des systèmes dont les mécanismes internes restent largement opaques.

Sur le plan technique, l’architecture Vera Rubin promet des gains substantiels en densité de calcul par watt, ce qui est précisément l’enjeu central : dans un contexte de contraintes sur l’approvisionnement en énergie des datacenters, l’efficacité énergétique est devenue un avantage concurrentiel aussi important que la puissance brute.

Être parmi les premiers clients engagés sur Vera Rubin place Thinking Machines Lab dans une position que peu de startups peuvent se permettre : un accès garanti à la capacité de calcul de demain, dans un marché où les GPU sont disputés comme des ressources rares.

Mira Murati, 12 milliards de valorisation et le poids de l’attente

La trajectoire financière de Thinking Machines Lab est aussi remarquable que son accord avec Nvidia. La startup aurait atteint une valorisation de 12 milliards de dollars lors de ses dernières levées de fonds, avec un total de capitaux levés dépassant 2 milliards de dollars — des chiffres qui placent l’entreprise parmi les startups IA les mieux capitalisées au monde, avant même d’avoir commercialisé un produit.

Mira Murati elle-même est une entité à part dans cet écosystème. Ancienne CTO d’OpenAI, elle a supervisé le lancement de ChatGPT, de DALL-E et de GPT-4 avant de quitter l’entreprise de Sam Altman dans des circonstances restées partiellement obscures. Son départ a été suivi de près par plusieurs ingénieurs et chercheurs seniors d’OpenAI, ce qui a contribué à légitimer immédiatement Thinking Machines Lab aux yeux des investisseurs.

Les levées successives ont notamment impliqué des fonds de premier plan de la Silicon Valley, séduits par la combinaison d’une équipe technique de haut niveau et d’une vision centrée sur des modèles d’IA "plus contrôlables et plus transparents" — une promesse régulièrement formulée dans ce secteur, mais rarement tenue.

La course mondiale aux capacités de calcul : pourquoi cet accord s’inscrit dans une dynamique plus large

L’accord entre Thinking Machines et Nvidia ne se lit pas en dehors du contexte d’une compétition mondiale sans précédent pour l’accès aux infrastructures de calcul.

Les grandes entreprises technologiques — Microsoft, Google, Amazon, Meta — investissent chacune des dizaines de milliards de dollars par an dans des datacenters équipés de GPU Nvidia. Les gouvernements, notamment aux États-Unis, en Europe et en Asie, ont compris que la souveraineté numérique passerait par la maîtrise de cette infrastructure. Le projet Stargate aux États-Unis, annoncé début 2025 avec 500 milliards de dollars d’investissements sur quatre ans, en est la manifestation la plus spectaculaire.

Dans ce contexte, les startups IA font face à un paradoxe structurel :

  • Elles ont besoin de capacités de calcul massives pour rester compétitives sur la qualité des modèles
  • Ces capacités sont concentrées chez quelques fournisseurs (principalement Nvidia)
  • Les délais d’approvisionnement peuvent dépasser un an pour des clusters de grande taille
  • Les grandes entreprises tech ont une capacité de négociation infiniment supérieure

Securing un accord pluriannuel avec Nvidia à ce stade revient pour Thinking Machines Lab à réserver sa place dans la file d’attente — et à le faire avec suffisamment de garanties financières pour être pris au sérieux comme interlocuteur stratégique.

Ce que l’accord révèle des ambitions de la startup

Au-delà de la dimension infrastructurelle, l’accord Thinking Machines-Nvidia éclaire la nature des ambitions de la startup. Une entreprise qui contractualise 1 gigawatt de capacité de calcul ne se prépare pas à lancer un assistant conversationnel de niche. Elle se prépare à entraîner des modèles fondamentaux capables de rivaliser avec GPT-5, Gemini Ultra ou les prochains modèles de Anthropic.

La spécificité revendiquée de l’approche de Mira Murati réside dans une attention particulière portée à l’alignement des modèles — c’est-à-dire leur capacité à se comporter de manière prévisible, explicable et conforme aux intentions de leurs utilisateurs. C’est une promesse qui distingue le discours de Thinking Machines Lab dans un secteur où la course aux performances brutes tend à éclipser les questions de sécurité et de contrôle.

L’infrastructure Vera Rubin, avec ses capacités d’entraînement supérieures, permettra à la startup de tester et itérer sur des architectures de modèles plus complexes — potentiellement des systèmes multimodaux intégrant texte, image, code et raisonnement dans une même infrastructure unifiée.

Les questions que l’accord laisse ouvertes

Plusieurs points méritent d’être suivis avec attention dans les mois à venir.

La date de 2027 pour le déploiement à pleine capacité laisse une fenêtre temporelle longue dans un secteur où deux ans représentent plusieurs générations de modèles. Thinking Machines Lab devra maintenir son avance technologique perçue pendant cette période, sans nécessairement disposer de revenus commerciaux significatifs.

La dépendance à Nvidia est par ailleurs une variable stratégique à double tranchant. En s’engageant massivement sur l’architecture Vera Rubin, la startup parie sur la continuité de la domination de Nvidia dans le segment des GPU pour l’IA — une domination réelle mais pas éternelle, notamment face aux efforts de AMD, Intel et des puces propriétaires développées par Google (TPU) et Amazon (Trainium).

Enfin, la question de la monétisation reste la plus fondamentale. À 12 milliards de valorisation et avec une infrastructure de cette ampleur en cours de déploiement, les attentes des investisseurs seront élevées. Le moment où Thinking Machines Lab devra présenter des produits génératifs de revenus approche inexorablement.


Points clés à retenir

  • Thinking Machines Lab a conclu un accord pluriannuel avec Nvidia pour déployer 1 gigawatt de systèmes Vera Rubin d’ici 2027, couvrant l’entraînement et l’inférence de modèles IA.
  • La startup fondée par Mira Murati affiche une valorisation de 12 milliards de dollars et a levé plus de 2 milliards de dollars sans avoir encore commercialisé de produit.
  • L’architecture Vera Rubin de Nvidia succédera à Blackwell et promet des gains majeurs en efficacité énergétique — un critère devenu central dans la compétition mondiale pour le compute.
  • L’accord s’inscrit dans une course globale aux infrastructures de calcul IA où les délais d’approvisionnement en GPU créent des avantages compétitifs durables.
  • La dépendance à Nvidia et l’absence de revenus commerciaux restent les deux variables stratégiques critiques à surveiller pour la startup.

FAQ

Qu’est-ce que Thinking Machines Lab ?
Thinking Machines Lab est une startup spécialisée dans l’intelligence artificielle, fondée fin 2024 par Mira Murati, ancienne directrice technique d’OpenAI. L’entreprise se concentre sur le développement de modèles d’IA fondamentaux avec une approche centrée sur l’alignement et la transparence des systèmes.

Qu’est-ce que l’architecture Vera Rubin de Nvidia ?
Vera Rubin est le nom de code de la prochaine génération de GPU de Nvidia, attendue pour 2027. Elle succédera à la plateforme Blackwell et vise des gains significatifs en puissance de calcul et en efficacité énergétique par rapport aux architectures précédentes.

Que signifie 1 gigawatt de capacité de calcul IA ?
Un gigawatt représente 1 000 mégawatts de puissance électrique. Dans le contexte de l’IA, cette mesure désigne la capacité d’infrastructure dédiée à faire fonctionner des milliers de GPU en parallèle pour entraîner des modèles de grande taille ou traiter des requêtes d’inférence à très grande échelle.

Quelle est la différence entre entraînement et inférence en IA ?
L’entraînement est la phase pendant laquelle un modèle apprend à partir de grandes quantités de données — c’est la phase la plus gourmande en énergie. L’inférence est la phase où le modèle déjà entraîné répond à des requêtes en temps réel ; moins intensive par unité, elle représente la charge principale à l’échelle commerciale.

Pourquoi la valorisation de Thinking Machines Lab est-elle si élevée sans produit commercial ?
Dans le secteur de l’IA générative, les investisseurs évaluent les startups principalement sur la qualité de leur équipe fondatrice, leur positionnement technologique et leur accès aux ressources critiques (compute, talents, données). La réputation de Mira Murati et le recrutement d’anciens chercheurs seniors d’OpenAI ont été les facteurs déterminants pour atteindre une valorisation de 12 milliards de dollars en amorçage.

Nvidia est-il le seul fournisseur possible pour une infrastructure de cette ampleur ?
Nvidia domine actuellement le marché des GPU pour l’IA avec une part estimée à plus de 80 % des ventes de puces dédiées à l’entraînement de modèles. AMD, Intel, Google (TPU) et Amazon (Trainium) développent des alternatives, mais aucune n’a encore atteint le niveau d’écosystème logiciel (CUDA) qui fait la force de Nvidia dans ce secteur.