Le New York Times a récemment donné son feu vert à l'utilisation d'outils d'intelligence artificielle au sein de sa rédaction. Ces outils sont destinés à aider les journalistes à affiner leurs textes, résumer des informations, et même à poser des questions pertinentes lors d'interviews. Dans un courriel interne, la direction a annoncé que le personnel des produits et de l'édition bénéficierait d'une formation sur l'IA. Un nouvel outil, baptisé Echo, a été introduit pour faciliter la synthèse d'articles et de briefings.
Les employés ont reçu des directives éditoriales sur les usages acceptables d'Echo et d'autres outils d'IA, les encourageant à les utiliser pour suggérer des modifications, créer des résumés, et rédiger des contenus promotionnels adaptés aux réseaux sociaux. Des exemples concrets ont été présentés lors d'une vidéo de formation obligatoire, tels que la création de quiz d'actualité, de cartes de citation, et même de suggestions de questions à poser à des PDG lors d'interviews. Cependant, il existe des limitations strictes : les journalistes ne doivent pas utiliser l’IA pour rédiger ou modifier substantiellement des articles, contourner les paywalls, intégrer des contenus protégés par des droits d'auteur, ou publier des images ou vidéos générées par l'IA sans les étiqueter.
La question demeure : quelle sera la proportion de contenu rédigé par l'IA que le New York Times acceptera dans ses publications ? Dans un mémo publié l'année dernière, le journal a promis que « le journalisme du Times sera toujours rapporté, écrit et édité par nos journalistes experts. » Ce principe a été réaffirmé quelques mois plus tard, déclarant que la responsabilité de l'information repose toujours sur les journalistes, peu importe le mode de création. Selon leurs principes adoptés en mai 2024, toute utilisation de l'IA doit commencer par des faits validés par des journalistes et être examinée par un éditeur.
En plus d'Echo, d'autres outils d'IA ont été approuvés, tels que GitHub Copilot pour le développement de logiciels, Google Vertex AI pour le développement de produits, et l'API non-ChatGPT d'OpenAI. Cette démarche s'inscrit dans un contexte complexe, alors que le New York Times est engagé dans une bataille juridique avec OpenAI et Microsoft, accusant ces entreprises d'avoir utilisé son contenu sans autorisation pour former ChatGPT. D'autres médias adoptent également l'IA à divers niveaux, allant d'outils de correction orthographique à la génération d'articles entiers.
Pour conclure, cette évolution soulève des interrogations cruciales : jusqu'où l'IA peut-elle aller sans compromettre l'intégrité du journalisme ? Les outils d'intelligence artificielle peuvent-ils réellement enrichir le processus rédactionnel sans remplacer l'humain ?
P.S. Le New York Times explore l'intégration de l'intelligence artificielle pour optimiser ses processus rédactionnels, un domaine dans lequel Zenbaia se positionne comme une solution innovante pour maximiser la productivité et libérer le potentiel créatif des utilisateurs grâce à des assistants IA personnalisés.
Source originale : The New York Times, par Jess Weatherbed.