- Ce que cache le terme "modèles du monde"
- L’architecture JEPA, pierre angulaire de la vision de LeCun
- 1,03 milliard : le pari des investisseurs sur une IA post-LLM
- Une géographie stratégique : Paris, New York, Montréal, Singapour
- Ce que les LLM ne feront jamais (selon LeCun)
- Les ambitions à long terme : vers une IA qui comprend avant de parler
- FAQ
AMI Labs : Yann LeCun lève 1 milliard pour enseigner la réalité à l’IA
Vous assistez peut-être, sans le savoir tout à fait, à l’un des virages les plus silencieux et les plus décisifs de l’histoire de l’intelligence artificielle. AMI Labs, la nouvelle startup fondée par Yann LeCun — vice-président et chef scientifique de Meta AI, lauréat du prix Turing 2018 —, vient de boucler une levée de fonds de 1,03 milliard de dollars lors de son tour de table de série A. Un milliard. Pour une société dont l’encre de constitution est à peine sèche. Le message est clair : les investisseurs ont compris que la prochaine bataille de l’IA ne se jouera plus sur le terrain du langage, mais sur celui de la réalité physique.
Les modèles du monde (World Models en anglais), concept central d’AMI Labs et cheval de bataille de Yann LeCun depuis des années, représentent une rupture franche avec la philosophie des grands modèles de langage. Là où un LLM comme GPT-4 ou Gemini prédit le prochain mot d’une séquence, un modèle du monde cherche à construire une représentation interne de la réalité — à comprendre la physique des objets, la causalité des événements, la logique des interactions humaines. Une ambition qui, si elle aboutit, pourrait rendre caduque une décennie entière d’architecture neuronale.

Ce que cache le terme "modèles du monde"
Le concept n’est pas né avec AMI Labs. Yann LeCun en défend les fondements depuis au moins 2022, notamment dans son papier fondateur "A Path Towards Autonomous Machine Intelligence", publié sur Meta AI Research. L’idée centrale : un agent vraiment intelligent ne prédit pas des tokens, il simule le monde.
Un enfant de deux ans qui renverse un verre d’eau ne se contente pas d’observer la conséquence — il met à jour sa représentation mentale de la gravité, de la viscosité, des surfaces. C’est précisément cette capacité de modélisation causale que les LLM actuels sont structurellement incapables de développer. Ils corrèlent, ils n’inférent pas.
Les modèles du monde visent donc à doter les systèmes d’IA de ce que les chercheurs appellent du "sens commun physique" : comprendre qu’un objet posé en équilibre va tomber, qu’une porte fermée constitue un obstacle, qu’une action entraîne une réaction prévisible dans un environnement donné.

L’architecture JEPA, pierre angulaire de la vision de LeCun
Au coeur de la stratégie technique d’AMI Labs se trouve l’architecture JEPA — Joint Embedding Predictive Architecture. Développée initialement au sein des laboratoires de Meta AI, elle constitue l’épine dorsale sur laquelle LeCun entend construire la prochaine génération d’IA.
La différence fondamentale avec les architectures génératives classiques mérite qu’on s’y attarde :
- Les LLM génèrent des représentations dans l’espace des pixels ou des tokens — ils "imaginent" une réponse plausible.
- JEPA opère dans un espace de représentations abstraites — elle prédit non pas le détail exact d’un événement futur, mais sa structure latente, son essence.
Concrètement, cela signifie qu’un modèle JEPA peut comprendre qu’un objet va se déplacer vers la droite sans avoir à "visualiser" chaque pixel intermédiaire. C’est computationnellement bien plus efficace — et théoriquement bien plus robuste face aux cas limites.
Cette approche réduit mécaniquement l’un des fléaux les plus documentés des LLM : les hallucinations. Quand un modèle génère dans l’espace des représentations plutôt que dans celui des tokens, il a moins de latitude pour inventer des faits qui sonnent bien sans correspondre à aucune réalité.
1,03 milliard : le pari des investisseurs sur une IA post-LLM
Le tour de table d’AMI Labs n’est pas seulement remarquable par son montant. Il l’est aussi par la nature de ses participants. NVIDIA, Samsung, Toyota Ventures et Nabla — la startup française spécialisée dans l’IA médicale — figurent parmi les partenaires stratégiques annoncés. Un écosystème délibérément construit à l’intersection du hardware, de l’industrie et des usages critiques.
NVIDIA apporte évidemment sa puissance de calcul et ses GPU, mais aussi une légitimité technologique que peu d’acteurs peuvent égaler dans l’entraînement de modèles massifs. Samsung et Toyota Ventures signalent quant à eux une orientation marquée vers les applications dans le monde physique : appareils embarqués, robotique, véhicules autonomes. Nabla, enfin, positionne AMI Labs sur le terrain de la santé, secteur où la fiabilité des inférences n’est pas négociable.
Le montant levé — 1,03 milliard de dollars dès la série A — place AMI Labs parmi les démarrages les plus capitalisés de l’histoire de l’IA en dehors des États-Unis. Une performance d’autant plus notable que la société ne commercialise encore aucun produit grand public.
Une géographie stratégique : Paris, New York, Montréal, Singapour
AMI Labs ne se déploie pas comme une startup californienne de plus. Son implantation internationale porte une intention lisible : Paris pour l’écosystème européen de la recherche fondamentale et les liens avec l’INRIA et École Normale Supérieure; New York pour la proximité avec les marchés financiers et les grandes entreprises américaines; Montréal pour le vivier de chercheurs formés à l’école de Yoshua Bengio et du MILA; Singapour pour l’Asie du Sud-Est et ses industries manufacturières ultra-compétitives.
Cette carte du monde n’est pas un hasard de gérance fiscale. Elle reflète la conviction de LeCun que les modèles du monde doivent être entraînés sur des données multiculturelles et multimodales pour espérer une généralisation robuste. Un modèle du monde entraîné uniquement sur des données américaines développerait, selon lui, des biais profonds dans sa représentation de la physique sociale et des interactions humaines.
La présence parisienne mérite une attention particulière. Yann LeCun est français — diplômé de l’ESIEE Paris et docteur de l’Université Pierre-et-Marie-Curie — et entretient des liens anciens avec l’écosystème de recherche hexagonal. Le choix de Paris comme hub européen signale une volonté d’ancrer AMI Labs dans une tradition académique distincte de la Silicon Valley.
Ce que les LLM ne feront jamais (selon LeCun)
La critique de Yann LeCun à l’égard des grands modèles de langage est constante depuis plusieurs années et mérite d’être posée clairement. Elle ne relève pas d’une posture marketing destinée à valoriser AMI Labs — elle précède la création de la société de plusieurs années.
LeCun identifie trois limites structurelles des LLM qui, selon lui, les condamnent à rester des outils puissants mais fondamentalement bornés :
- L’incapacité à raisonner causalement : un LLM prédit des corrélations statistiques, il ne comprend pas pourquoi A entraîne B.
- L’absence de grounding physique : sans ancrage dans le monde réel, les modèles de langage n’ont aucun moyen de vérifier la cohérence de leurs affirmations avec la physique ou la logique.
- La consommation de données disproportionnée : un LLM a besoin de billions de tokens pour apprendre ce qu’un enfant comprend en quelques heures d’expérience incarnée.
Ces limites ne sont pas des bugs corrigeables par une mise à jour. Elles sont, selon LeCun, inhérentes au paradigme de la prédiction de tokens. C’est sur ce diagnostic que repose toute la proposition de valeur d’AMI Labs.
Les ambitions à long terme : vers une IA qui comprend avant de parler
AMI Labs ne cache pas ses ambitions à long terme. La société vise le développement d’une intelligence artificielle générale avancée (Advanced AI dans leur terminologie) capable d’interagir avec le monde physique de manière autonome et fiable. Cela implique des applications directes dans la robotique, les véhicules autonomes, la médecine diagnostique et les assistants embarqués.
Le calendrier reste volontairement flou — ce qui est, en soi, une marque de sérieux scientifique. LeCun a toujours refusé les promesses de dates pour l’AGI, contrairement à certains de ses concurrents plus enclins aux annonces spectaculaires. La levée de 1,03 milliard finance une recherche fondamentale dont les premiers produits commerciaux pourraient n’émerger que dans cinq à dix ans.
Le vrai indicateur à surveiller n’est pas un produit grand public mais la publication de benchmarks sur des tâches de raisonnement physique et causal — domaine où les modèles JEPA devraient, en théorie, creuser l’écart avec les architectures transformer classiques.
L’IA, jusqu’ici, savait parler du monde. AMI Labs parie qu’elle peut apprendre à le comprendre.
Points clés à retenir
- AMI Labs, fondée par Yann LeCun, a levé 1,03 milliard de dollars en série A pour développer des modèles du monde — une approche radicalement différente des LLM.
- L’architecture JEPA (Joint Embedding Predictive Architecture) constitue le fondement technique de la société : elle prédit dans l’espace des représentations abstraites plutôt que dans celui des tokens.
- Les partenaires stratégiques incluent NVIDIA, Samsung, Toyota Ventures et Nabla, signalant une orientation vers les applications physiques et industrielles.
- La société est implantée à Paris, New York, Montréal et Singapour, avec une géographie délibérément internationale.
- L’objectif à long terme : doter l’IA d’un sens commun physique pour dépasser les hallucinations et les limites causales des LLM actuels.
FAQ
Qu’est-ce qu’AMI Labs ?
AMI Labs est une startup d’intelligence artificielle fondée par Yann LeCun, ancien chercheur en chef de Meta AI et lauréat du prix Turing. La société se consacre au développement de modèles du monde (World Models), une approche de l’IA visant à comprendre la réalité physique et causale plutôt que de prédire des séquences de tokens comme les LLM classiques.
Combien AMI Labs a-t-il levé et auprès de qui ?
AMI Labs a levé 1,03 milliard de dollars lors de son tour de table de série A. Parmi les investisseurs et partenaires stratégiques figurent NVIDIA, Samsung, Toyota Ventures et Nabla, la startup française spécialisée dans l’IA médicale.
Qu’est-ce qu’un modèle du monde en IA ?
Un modèle du monde est un système d’IA conçu pour construire une représentation interne de la réalité physique — comprendre la causalité, la physique des objets et la logique des interactions — plutôt que de se contenter de prédire statistiquement la suite d’une séquence textuelle. L’analogie la plus juste est celle d’un enfant qui apprend par l’expérience sensorielle plutôt que par la lecture de milliards de phrases.
Quelle est la différence entre JEPA et un LLM classique ?
Un LLM génère des réponses en prédisant le token le plus probable dans une séquence, dans l’espace des mots ou des pixels. JEPA (Joint Embedding Predictive Architecture) opère dans un espace de représentations abstraites : elle prédit la structure latente d’un événement futur sans avoir à en générer tous les détails. Cela rend les inférences plus robustes et réduit les hallucinations.
Où est implantée AMI Labs ?
AMI Labs dispose de bureaux et d’équipes dans quatre villes : Paris (hub européen et recherche fondamentale), New York (marchés américains), Montréal (écosystème académique francophone) et Singapour (Asie du Sud-Est et industries manufacturières).
Pourquoi Yann LeCun critique-t-il les LLM ?
Yann LeCun considère que les LLM souffrent de limites structurelles non corrigeables : absence de raisonnement causal, manque d’ancrage dans le monde physique (grounding), et consommation de données disproportionnée par rapport à la capacité de généralisation. Ces critiques, formulées bien avant la création d’AMI Labs, constituent le fondement de la vision scientifique de la société.

Passionnée de maison et de voyage, j’adore partager des idées simples pour rendre le quotidien plus doux, ici comme ailleurs.
Bienvenue chez moi — et sur les routes du monde !



