L’intelligence artificielle dans le journalisme : quand l’AP automatise ses dépêches

mai 9, 2026
Léna Roussel
Ecris par Léna Roussel

Passionnée de maison et de voyage, j’adore partager des idées simples pour rendre le quotidien plus doux, ici comme ailleurs. Bienvenue chez moi — et sur les routes du monde !

L’intelligence artificielle dans le journalisme : quand l’AP automatise ses dépêches

Vous produisez mille dépêches financières par trimestre, ou bien dix mille ? La réponse, pour l’Associated Press, est ni l’une ni l’autre : depuis 2014, l’agence américaine en génère des dizaines de milliers grâce à un logiciel. L’intelligence artificielle dans le journalisme n’est plus un horizon spéculatif — c’est une réalité industrielle qui remodèle silencieusement les rédactions, les salles de presse et, quelque part au bout de la chaîne, l’information que vous consommez chaque matin avec votre café.

L’AP a conclu un partenariat avec Automated Insights, entreprise spécialisée dans la génération de texte automatique, pour produire des articles sur les résultats trimestriels d’entreprises cotées en Bourse. Résultat : ce qui mobilisait des journalistes humains pendant des heures se fabrique désormais en quelques secondes. Le modèle a depuis essaimé dans d’autres domaines — sport, météo, immobilier — et d’autres médias ont emboîté le pas. La question n’est plus de savoir si l’IA écrira vos nouvelles. Elle le fait déjà.


L’AP, laboratoire grandeur nature de la rédaction automatisée

L’Associated Press n’est pas une rédaction comme les autres. Fondée en 1846, c’est l’une des agences de presse les plus influentes au monde, dont les dépêches alimentent des milliers de journaux, chaînes de télévision et sites d’information. Sa décision d’adopter la rédaction automatisée à grande échelle a donc valeur de signal — ce que l’AP fait aujourd’hui, le reste de l’industrie envisage de le faire demain.

Le logiciel Wordsmith, développé par Automated Insights, fonctionne sur un principe simple : il ingère des données structurées (chiffres de résultats, statistiques sportives, données météorologiques), les passe dans des modèles de langage et produit un texte journalistiquement acceptable. L’AP est passée de 300 articles trimestriels sur les résultats d’entreprises à plus de 3 700 — une multiplication par douze, sans recruter un seul journaliste supplémentaire.

📌 À retenir : L’AP génère aujourd’hui dix fois plus d’articles financiers qu’avant l’automatisation, avec un effectif rédactionnel identique. Ce ratio résume à lui seul la logique économique qui pousse les médias vers l’IA.

Ce que l’IA rédige bien — et ce qu’elle rédige mal

Les textes produits automatiquement excellent dans un registre précis : la restitution factuelle de données chiffrées dans un format narratif standardisé. Un article sur les bénéfices trimestriels de Microsoft ou un compte-rendu de match de baseball entre dans cette catégorie. La structure est prévisible, les variables connues, le style attendu.

En revanche, dès que l’information sort de ce périmètre balisé, les failles apparaissent. Les modèles de langage — y compris les plus sophistiqués — peuvent produire ce que les informaticiens appellent des hallucinations : des affirmations inventées, des citations attribuées à tort, des chiffres erronés qui ont l’air vraisemblables. En 2023, le magazine Sports Illustrated a été épinglé pour avoir publié des articles signés par des auteurs qui n’existaient pas, générés par IA. Le Guardian a recensé des cas où des chatbots citaient des sources académiques inexistantes.

Les tensions économiques qui accélèrent l’adoption

Comprendre pourquoi l’IA s’installe dans les rédactions suppose de regarder les bilans financiers des médias. L’équation est brutale : les recettes publicitaires se sont effondrées avec la montée en puissance des plateformes numériques, tandis que les coûts de production de l’information sont restés élevés.

Entre 2008 et 2020, les effectifs journalistiques aux États-Unis ont diminué de près de 26 %, selon le Pew Research Center. Les médias cherchent à produire plus de contenu avec moins de ressources humaines — et l’IA répond précisément à cette injonction paradoxale.

L’argument de la productivité

Les partisans de l’automatisation avancent un argument en apparence raisonnable : si un logiciel peut rédiger des comptes-rendus de résultats financiers, les journalistes sont libérés pour des tâches à plus forte valeur ajoutée — enquêtes, reportages de terrain, investigations. Lou Ferrara, alors vice-président de l’AP, affirmait en 2015 que l’automatisation permettait à ses équipes de "se concentrer sur le journalisme qui compte vraiment".

L’argument se tient, à condition que les effectifs libérés ne soient pas simplement supprimés. La réalité observée dans de nombreuses rédactions suggère que les économies réalisées grâce à l’IA ont souvent servi à justifier des réductions de postes, plutôt qu’à financer du journalisme d’investigation.

L’argument de l’exhaustivité

L’autre promesse de l’automatisation, c’est la couverture exhaustive. Un journaliste humain ne peut pas rédiger des comptes-rendus pour les 5 000 entreprises cotées en Bourse chaque trimestre. Un logiciel, si. Cette démocratisation de l’information financière bénéficie aux investisseurs individuels et aux petites capitalisations qui n’auraient jamais fait l’objet d’un article autrement.

Risques éthiques et responsabilité éditoriale : qui signe quoi ?

La question de la signature révèle une tension fondamentale. Quand un article est produit par un algorithme, qui en est responsable ? L’agence qui a déployé le logiciel ? L’entreprise qui l’a développé ? Le journaliste qui a validé — ou n’a pas validé — le texte avant publication ?

⚠️ Attention : Plusieurs médias ont publié des contenus générés par IA sans mention explicite de ce fait à leurs lecteurs. Cette pratique soulève des questions légitimes sur la transparence éditoriale.

Les erreurs factuelles : un risque systémique

Un journaliste humain qui commet une erreur factuelle peut être identifié, sanctionné, et le processus ayant conduit à l’erreur peut être analysé. Un logiciel qui produit des milliers d’articles erronés génère un risque systémique d’une nature différente : les erreurs se reproduisent à grande échelle, avec une apparence de légitimité institutionnelle.

En 2022, CNET, filiale de Fandom, a publié des dizaines d’articles financiers générés par IA avant que des journalistes indépendants ne découvrent qu’ils contenaient de nombreuses erreurs factuelles — et que la mention "IA" était discrètement enfouie dans les métadonnées, loin du regard des lecteurs.

Le problème des citations inventées

Les modèles de langage génératifs ont une fâcheuse tendance à produire des citations plausibles mais fictives. Attribuer de fausses déclarations à une personnalité réelle est une faute journalistique grave. Or rien dans l’architecture des grands modèles de langage n’empêche structurellement cette dérive — cela exige une supervision humaine rigoureuse que tous les médias ne sont pas en mesure d’assurer.

💡 Astuce : Certaines rédactions ont instauré des processus de vérification systématique des contenus IA avant publication, avec un journaliste humain désigné comme "éditeur de sortie". Ce modèle hybride est aujourd’hui considéré comme la pratique la plus responsable du secteur.

Ce que disent les journalistes — et ce que répondent les éditeurs

La Fédération Européenne des Journalistes a publié en 2023 des lignes directrices appelant à la transparence obligatoire sur l’usage de l’IA dans la production de contenu, et à des garanties contractuelles pour les journalistes dont le travail sert à entraîner les modèles.

Du côté des éditeurs, le discours officiel insiste sur la complémentarité. Sam Gregory, directeur de l’organisation WITNESS spécialisée dans les droits humains et la technologie, formule la tension ainsi : "La question n’est pas si l’IA peut faire du journalisme, mais qui décide ce qu’elle doit couvrir, et selon quels critères."

Cette phrase touche au cœur du problème. Un algorithme optimisé pour le volume et l’engagement n’a pas les mêmes priorités éditoriales qu’un journaliste formé à l’éthique de l’information. Il ne choisit pas de couvrir un scandale politique au risque de déplaire à un annonceur. Il ne renonce pas à une source parce qu’elle lui semble peu fiable. Il maximise ce pour quoi il a été entraîné.

L’avenir hybride : ni remplacement total ni refus luddite

Le vrai débat n’est pas binaire. L’alternative n’est pas "IA contre journalistes humains" mais "quelle répartition des tâches, avec quelles garanties, sous quelle supervision ?".

Les expériences les plus concluantes observées à ce jour dans des rédactions comme Reuters, Bloomberg ou le Washington Post (qui utilise son propre système Heliograf depuis 2016) suggèrent un modèle de coopération : l’IA gère les contenus à fort volume et faible valeur ajoutée narrative, les journalistes humains assurent la supervision, l’investigation et tout ce qui requiert jugement contextuel et source humaine.

Ce modèle a ses limites budgétaires. La supervision humaine a un coût. Et lorsque les marges se réduisent, la tentation est forte de réduire cette supervision avant de réduire la production automatisée.

La Columbia Journalism Review a posé la question sans détour dans une enquête de 2023 : à quel moment l’économie de la supervision humaine transforme-t-elle l’IA de copilote en pilote automatique ? La réponse varie selon les rédactions — et c’est précisément ce manque de standardisation qui inquiète les observateurs du secteur.

Le journalisme a traversé la révolution de l’imprimerie, celle de la radio, celle du numérique. Chaque fois, les prophètes de la fin du métier ont eu tort — et chaque fois, le métier s’est profondément transformé. L’IA ne fait probablement pas exception. Mais contrairement aux technologies précédentes, elle ne se contente pas de distribuer ou d’accélérer l’information : elle prétend la produire. C’est là une différence de nature, pas de degré, que ni les rédactions ni leurs lecteurs ne peuvent se permettre d’ignorer.

<!--PROTECTED_SCRIPT:PHNjcmlwdCB0eXBlPSJhcHBsaWNhdGlvbi9sZCtqc29uIj4KewogICJAY29udGV4dCI6ICJodHRwczovL3NjaGVtYS5vcmciLAogICJAZ3JhcGgiOiBbCiAgICB7CiAgICAgICJAdHlwZSI6ICJBcnRpY2xlIiwKICAgICAgImhlYWRsaW5lIjogIkwnaW50ZWxsaWdlbmNlIGFydGlmaWNpZWxsZSBkYW5zIGxlIGpvdXJuYWxpc21lIDogcXVhbmQgbCdBUCBhdXRvbWF0aXNlIHNlcyBkw6lww6pjaGVzIiwKICAgICAgImRlc2NyaXB0aW9uIjogIkNvbW1lbnQgbCdBc3NvY2lhdGVkIFByZXNzIHV0aWxpc2UgbCdJQSBwb3VyIGF1dG9tYXRpc2VyIHNlcyBkw6lww6pjaGVzLCBsZXMgcmlzcXVlcyDDqXRoaXF1ZXMgZXQgbGVzIGVuamV1eCBwb3VyIGwnYXZlbmlyIGR1IGpvdXJuYWxpc21lLiIsCiAgICAgICJhdXRob3IiOiB7CiAgICAgICAgIkB0eXBlIjogIk9yZ2FuaXphdGlvbiIsCiAgICAgICAgIm5hbWUiOiAiSHVsdHJhc2ltcGxlIENvbSIKICAgICAgfSwKICAgICAgInB1Ymxpc2hlciI6IHsKICAgICAgICAiQHR5cGUiOiAiT3JnYW5pemF0aW9uIiwKICAgICAgICAibmFtZSI6ICJIdWx0cmFzaW1wbGUgQ29tIiwKICAgICAgICAidXJsIjogImh0dHBzOi8vaHVsdHJhc2ltcGxlLmNvbSIKICAgICAgfSwKICAgICAgImRhdGVQdWJsaXNoZWQiOiAiMjAyNi0wNS0wNiIsCiAgICAgICJpbkxhbmd1YWdlIjogImZyIgogICAgfSwKICAgIHsKICAgICAgIkB0eXBlIjogIkZBUVBhZ2UiLAogICAgICAibWFpbkVudGl0eSI6IFsKICAgICAgICB7CiAgICAgICAgICAiQHR5cGUiOiAiUXVlc3Rpb24iLAogICAgICAgICAgIm5hbWUiOiAiTCdBc3NvY2lhdGVkIFByZXNzIHV0aWxpc2UtdC1lbGxlIHZyYWltZW50IGwnSUEgcG91ciByw6lkaWdlciBzZXMgYXJ0aWNsZXMgPyIsCiAgICAgICAgICAiYWNjZXB0ZWRBbnN3ZXIiOiB7CiAgICAgICAgICAgICJAdHlwZSI6ICJBbnN3ZXIiLAogICAgICAgICAgICAidGV4dCI6ICJPdWkuIERlcHVpcyAyMDE0LCBsJ0FQIHV0aWxpc2UgbGUgbG9naWNpZWwgV29yZHNtaXRoIGQnQXV0b21hdGVkIEluc2lnaHRzIHBvdXIgcHJvZHVpcmUgZGVzIG1pbGxpZXJzIGQnYXJ0aWNsZXMgZmluYW5jaWVycyBldCBzcG9ydGlmcyBhdXRvbWF0aXF1ZW1lbnQsIHBhc3NhbnQgZGUgMzAwIMOgIHBsdXMgZGUgMyA3MDAgYXJ0aWNsZXMgdHJpbWVzdHJpZWxzIHN1ciBsZXMgcsOpc3VsdGF0cyBkJ2VudHJlcHJpc2VzLiIKICAgICAgICAgIH0KICAgICAgICB9LAogICAgICAgIHsKICAgICAgICAgICJAdHlwZSI6ICJRdWVzdGlvbiIsCiAgICAgICAgICAibmFtZSI6ICJRdWVscyBzb250IGxlcyBwcmluY2lwYXV4IHJpc3F1ZXMgZGUgbCdJQSBkYW5zIGxlIGpvdXJuYWxpc21lID8iLAogICAgICAgICAgImFjY2VwdGVkQW5zd2VyIjogewogICAgICAgICAgICAiQHR5cGUiOiAiQW5zd2VyIiwKICAgICAgICAgICAgInRleHQiOiAiTGVzIHJpc3F1ZXMgbWFqZXVycyBpbmNsdWVudCBsZXMgZXJyZXVycyBmYWN0dWVsbGVzIMOgIGdyYW5kZSDDqWNoZWxsZSwgbGVzIGNpdGF0aW9ucyBpbnZlbnTDqWVzIGF0dHJpYnXDqWVzIMOgIGRlIHZyYWllcyBwZXJzb25uYWxpdMOpcywgbGUgbWFucXVlIGRlIHRyYW5zcGFyZW5jZSBlbnZlcnMgbGVzIGxlY3RldXJzLCBldCBsYSByw6lkdWN0aW9uIGRlIGxhIHN1cGVydmlzaW9uIGh1bWFpbmUgc291cyBwcmVzc2lvbiDDqWNvbm9taXF1ZS4iCiAgICAgICAgICB9CiAgICAgICAgfSwKICAgICAgICB7CiAgICAgICAgICAiQHR5cGUiOiAiUXVlc3Rpb24iLAogICAgICAgICAgIm5hbWUiOiAiTGVzIGpvdXJuYWxpc3RlcyB2b250LWlscyDDqnRyZSByZW1wbGFjw6lzIHBhciBsJ0lBID8iLAogICAgICAgICAgImFjY2VwdGVkQW5zd2VyIjogewogICAgICAgICAgICAiQHR5cGUiOiAiQW5zd2VyIiwKICAgICAgICAgICAgInRleHQiOiAiTGVzIGV4cMOpcmllbmNlcyBkZXMgZ3JhbmRlcyByw6lkYWN0aW9ucyAoUmV1dGVycywgQmxvb21iZXJnLCBXYXNoaW5ndG9uIFBvc3QpIHByaXZpbMOpZ2llbnQgdW4gbW9kw6hsZSBoeWJyaWRlIDogbCdJQSBnw6hyZSBsZXMgY29udGVudXMgw6AgZm9ydCB2b2x1bWUsIGxlcyBqb3VybmFsaXN0ZXMgaHVtYWlucyBhc3N1cmVudCBzdXBlcnZpc2lvbiwgaW52ZXN0aWdhdGlvbiBldCB0b3V0IGNlIHF1aSByZXF1aWVydCBqdWdlbWVudCBjb250ZXh0dWVsLiIKICAgICAgICAgIH0KICAgICAgICB9CiAgICAgIF0KICAgIH0KICBdCn0KPC9zY3JpcHQ+:SCRIPT_END-->