Petits chatbots deviennent grands : l’effet d’un an de ChatGPT sur les médias

un an ChatGPT

Hip hip hip, hourra ! ChatGPT souffle sa première bougie. L’heure est donc venue de revenir sur cette première année de vie et d’examiner comment l’intelligence artificielle générative a changé le paysage média. Plongeons dans le rapport FIPP de 2023, qui offre un aperçu de la relation parfois inconfortable entre l’IA générative et les médias.

Quel est l’impact de ChatGPT sur l’explosion des usines de contenu automatisé ? La perception de l’utilisation ou non de l’IA a-t-elle évolué au cours de l’année écoulée ? Et comment pouvons-nous équilibrer la promesse et le danger de l’intelligence artificielle générative ? Toutes ces questions sont abordées dans le rapport FIPP sur l’impact de ChatGPT sur le secteur média.

Polyvalence

Première surprise : ChatGPT est plus polyvalent qu’on est souvent enclin à penser. Polyvalent, car il s’avère que le programme est utilisé de bien d’autres manières qu’uniquement pour la création de contenu. La création de titres, intros et autres résumés informatifs (‘standfirsts’) est souvent confiée aveuglément au chatbot gratuit.

Grâce à ChatGPT, les entreprises ont en outre aussi le loisir de tester différentes options A/B afin de déterminer quelle version d’un article trouve le plus d’écho auprès du public. Le résumé de contenu aussi, avec certaines entreprises média qui utilisent la technologie pour paraphraser de grands rapports ou même créer des nouvelles succinctes basées sur d’importants volumes de texte, est une des fonctions que ChatGPT applique déjà aujourd’hui en les juxtaposant, les alignant ou les mélangeant sans peine.

Structure

Cependant, comme le sait chaque philosophe de comptoir, il n’y a pas de liberté sans cadre. Dans un monde dans lequel les possibilités et les applications du chatbot semblent infinies et inépuisables, il est quasi impossible de faire abstraction des règles pour gérer et canaliser le tout. Pour contrer la croissance ultra rapide de ChatGPT et de l’IA en général, les entreprises média et les organisations dont elles sont membres se sont réunies, en 2023, afin de convenir de structures pour l’utilisation et la gouvernance de la technologie. En septembre de cette année, pas moins de 26 organisations mondiales, certaines représentant les secteurs de l’information, du divertissement, des magazines, de l’édition de livres et de l’édition académique, ont décrété The Global Principles for Artificial Intelligence.

Ces principes, qui bénéficient également de l’input et du soutien de la FIPP, soulignent que les outils d’IA ne peuvent être développés que dans le respect des lois et des principes établis qui protègent la propriété intellectuelle, les marques, les relations avec les consommateurs et les investissements des éditeurs.

Un regard critique

Ce n’est en tout cas pas comme si les réglementations relatives à l’IA et à ChatGPT étaient tombées du ciel. Car si, dès sa sortie, quasi le monde entier avait les yeux rivés sur ChatGPT, le nouveau chatbot a initialement surtout été toisé d’un œil sévère et critique. Lors de son lancement, l’outil a en effet bien vite été noyé sous les critiques et d’après les experts il n’allait pas faire long feu.

Lisez donc cette anthologie de commentaires publiés sur le site Web américain VentureBeat, qui traite de l’actualité des nouvelles technologies : « Une sensation » et « la technologie la plus disruptive de mémoire d’homme », un « baratineur de classe mondiale » et « un peu comme l’ivrogne que vous rencontrez au comptoir et qui n’arrête pas de discourir, qui au contraire continue de jacasser, produisant un mélange fascinant de faits et de conneries aléatoires, mais que vous ne ramèneriez sûrement jamais chez vous pour rencontrer vos parents. »

En d’autres mots, il s’agit d’un tsunami – quelque peu prévisible – de critiques émanant du public. Cependant, nombreux sont les initiés qui n’ont pas non plus vraiment réagi avec enthousiasme au début et qui ont laissé libre cours à leurs doutes. Il y a moins d’un an, par exemple, Sam Altman en personne, alors CEO d’OpenAI, a déclaré sur X, l’ancien Twitter, que ce serait une erreur de compter sur ChatGPT pour quoi que ce soit d’important.

Un journalisme de qualité

Un an plus tard, ces mêmes jugements résonnent toujours et bon nombre de critiques considèrent le chatbot avec la même méfiance. Il est cependant tout aussi vrai que son utilisation s’est depuis fermement établie et ancrée dans toutes sortes de secteurs de la société. Aussi dans le journalisme. Mieux encore, certains experts martèlent même aujourd’hui l’importance d’une automatisation plus poussée et plaident pour des salles de rédactions ‘AI first’, où leur base de coûts est énormément réduite pour ensuite investir dans un journalisme de qualité original. Ainsi, Juan Señor, Président d’Innovation Media Consulting, parmi d’autres, a affirmé que l’automatisation libérerait justement les journalistes pour qu’ils fassent du journalisme de haute qualité.

Cette tendance à l’automatisation se poursuit déjà aujourd’hui dans diverses entreprises média : bon nombre de points de vente font en effet déjà un usage limité de l’IA pour soutenir leurs activités. D’autres ont même imaginé entre-temps de nouveaux modèles basés sur la technologie. Ce dernier groupe comprend Jenny Romano et Pedro Henriques, cofondateurs de The Newsroom, une appli qui offre à ses lecteurs un briefing quotidien avec des résumés générés par l’IA des principaux articles d’information : les faits à ne pas manquer, le contexte et les considérations clés.

Trois vagues

N’hésitez pas à considérer les résumés générés comme une nouvelle phase de l’IA dans laquelle nous nous retrouvons. C’est en tout cas qu’affirme Francesco Marconi, un stratège média, auteur et entrepreneur connu pour son travail à l’intersection du journalisme, de la technologie et de l’innovation. Le Portugais a fait des recherches sur l’IA et a divisé l’innovation qu’il a rencontrée au cours de la dernière décennie en trois vagues : l’automatisation, l’augmentation et la génération.

Au cours de la première phase, explique-t-il, l’accent a été mis sur l’automatisation des communiqués de presse basés sur les données, tels que les rapports financiers, les résultats sportifs et les indicateurs économiques, à l’aide de techniques de génération de langage naturel. Aujourd’hui, des agences mondiales telles que Reuters, AFP et AP, mais aussi de plus petits points de vente, entre autres, expérimentent vigoureusement dans ce sens et automatisent déjà une grande partie de leur contenu.

Selon Marconi, la deuxième vague est apparue lorsque l’accent a glissé vers l’amélioration de l’information à l’aide de l’apprentissage automatique et du traitement du langage naturel pour analyser de grands ensembles de données et découvrir des tendances. Un exemple ? Le journal argentin La Nación, qui a commencé à utiliser l’IA pour soutenir son équipe data en 2019 et a ensuite mis en place un laboratoire d’IA en collaboration avec des analystes de données et des développeurs.

L’IA générative

Place à la troisième vague : l’IA générative, « alimentée par des modèles de langage capables de générer des textes narratifs à grande échelle », dixit Marconi. Cette grande échelle offre des applications et des opportunités pour le journalisme au-delà des simples rapports automatisés et de l’analyse de données. En cette année 2024, un chatbot est facilement capable de rédiger un article plus long et équilibré sur un sujet ou un article d’opinion épousant un point de vue particulier. Mieux encore, il peut même le faire dans le style d’un écrivain célèbre ou d’une publication.

Et les choses ne s’arrêtent pas là. Les idées autour d’applications possibles de cette technologie se sont multipliées depuis novembre, les journalistes ayant souvent eux-mêmes testé les possibilités des chatbots en termes d’écriture et de rédaction. Petite observation en marge : les modèles linguistiques avec lesquels ces outils opèrent, impliquent toutefois qu’ils réagissent à des indications humaines pour générer de nouveaux contenus et qu’ils n’apportent pas eux-mêmes les idées. Le modèle est en effet entraîné à partir d’un ensemble de contenus et de données et génère un nouvel output sur cette base.

Pas original

L’IA est donc entraîné et se base sur un input humain externe. C’est là aussi que, d’emblée, le bât blesse dit Madhumita Murgia, rédacteur IA chez The Financial Times. D’après lui, l’IA générative telle que nous la voyons aujourd’hui manque de certaines compétences importantes qui l’empêchent de jouer un rôle majeur dans le journalisme. L’IA a beau être utile pour synthétiser l’information, elle ne parvient en effet pas (pour l’instant) à procéder à des adaptations, voire à sortir des sentiers battus.

Ou encore, comme l’a dit Murgia dans un article du The Reuters Institute for the Study of Journalism : « Si l’on se base sur la situation actuelle de l’IA, celle-ci n’a rien d’originale. Elle ne révèle rien de nouveau. Elle se base sur des informations existantes. Et elle n’a pas de capacité d’analyse ni de voix. »

Un autre défi qui se dresse sur la route d’un rôle plus important pour l’IA générative dans le journalisme provient des erreurs factuelles que ChatGPT commet souvent, parfois même dans des démos publiques. Par le passé, le professeur Charlie Beckett, qui dirige le projet de recherche Polis/LSE JournalismAI, a également prêché la prudence à plusieurs reprises, déconseillant invariablement aux journalistes d’utiliser les nouveaux outils sans supervision humaine. La mise en garde de l’expert se laisse résumer en un seul slogan : « N’attendez pas trop de la technologie. »

Dans la pratique, la vision de Beckett n’est manifestement pas partagée par tout le monde, et encore moins suivie. Différents médias connus ont en effet déjà annoncé qu’ils comptaient utiliser ou qu’ils exploitent déjà l’IA générative dans leur contenu. BuzzFeed a annoncé vouloir utiliser l’IA pour ses fameux quiz de personnalité et le New York Times a déjà utilisé ChatGPT pour générer un message de Saint-Valentin à l’aide d’une combinaison d’instructions d’IA (ou ‘prompts’).

Ce ne sont pas les moindres, ni les derniers d’ailleurs, car le géant allemand de l’édition Axel Springer et l’éditeur britannique Reach, qui a récemment publié ses premiers articles générés par l’IA sur un site d’information local, sont actuellement occupés à explorer les possibilités de l’IA générative.

Un regard sur l’avenir

Conclusion ? Il semblerait donc que l’IA ‘is here to stay’, aussi dans le monde de l’édition. Certains experts prédisent qu’en 2026, pas moins de 90 % des contenus en ligne pourraient être générés automatiquement. À l’avenir, l’IA et l’humain deviendront donc de plus en plus – et plus intensément – dépendants l’un de l’autre, et ils feraient donc bien d’unir leurs forces, même si ce n’est que sous la forme d’un mariage de raison.

C’est de cet œil que Marconi voit en tout cas les choses. « L’industrie de l’information doit être impliquée activement dans la révolution de l’IA. En fait, les entreprises média ont l’opportunité de devenir un acteur important dans ce domaine. Ils possèdent quelques-uns des actifs les plus précieux pour le développement de l’IA : des données textuelles pour l’entraînement des modèles et des principes éthiques pour la création de systèmes fiables et dignes de confiance. »

Ou comme le disait déjà le visionnaire Marshall McLuhan il y a exactement soixante ans : « We become what we behold. We shape our tools, and thereafter our tools shape us. » À suivre, sans le moindre doute. Rendez-vous dans un an, pour un nouvel état des lieux ?

AVEZ-VOUS DÉJÀ LU CECI ?