De plus en plus de rédactions nationales et internationales se dotent d’une charte afin d’encadrer la pratique de l’IA.
La machine pense-t-elle au point d’informer ? L’inquiétude est fondée au sein de la profession. Parce que « le terme de robots-rédacteurs a été employé pour la rédaction d’un article sans journaliste, constate Akila Nedjar Guerre, maîtresse de conférences en sciences de l’information et de la communication à l’université de la Nouvelle-Calédonie. Il y a une dizaine d’années, des médias américains l’ont utilisé pour la conception d’articles courts, sans valeur ajoutée. »
L’intelligence artificielle peut être performante pour la reprise de dépêches de l’Agence France- Presse, l’élaboration de textes brefs et très factuels, voire de petits comptes-rendus. Néanmoins, « je n’ai aucun apport journalistique. Or, si ce qui m’intéresse lorsque j’achète un journal, c’est un point de vue, une analyse, alors là l’IA est nulle », relève Loïc Steffan, enseignant agrégé d’économie-gestion à l’UNC et connaisseur de cette nouvelle technologie.
Toutefois, au moins deux craintes continuent de hanter les journalistes. L’intelligence artificielle, tout d’abord, pourrait supprimer des postes au sein des effectifs. Ce qui est fort possible, pour l’exécution de tâches basiques ou répétitives. Mais l’IA n’ira jamais sur le terrain récolter l’information, ne fera jamais de l’investigation ni de critique approfondie. Voilà pourquoi des observateurs avertis estiment que les médias doivent maintenant investir pleinement ce champ journalistique. L’IA pouvant ainsi être utilisée comme un assistant des journalistes en vue de faciliter la recherche de données ou la traduction, par exemple.
TROIS PRINCIPES COMMUNS
La seconde appréhension a trait justement à l’utilisation même de l’IA. Sa facilité d’usage peut favoriser des excès. De plus en plus de médias nationaux et internationaux se dotent ainsi d’une charte. Des actes dans lesquels « nous retrouvons trois principes communs, explique l’universitaire Akila Nedjar Guerre. Le premier, une supervision humaine et éditoriale de l’utilisation de l’IA est essentielle. Deuxième point, les sources IA doivent être mentionnées. Enfin, le refus de publier des images artificielles est affirmé ».
En Nouvelle-Calédonie, une page, apparue récemment sur un réseau social, se présente comme un média d’actualité, mais fonctionnerait en fait uniquement avec de l’IA. Sans que cette particularité soit notifiée. Ce qui pose un problème sérieux à la fois de pillage possible des canaux traditionnels d’informations, voire de plagiat, et d’inexactitude des données livrées. Ainsi, globalement, « je continue à être abonné à toute la presse. Parce que, si je perds ce contenu des journalistes, je perds la qualité de l’information », juge l’enseignant et conférencier Loïc Steffan, estimant que, dans des cas précis, l’utilisation de l’intelligence artificielle permet « un gain de productivité pour les journalistes ».
Le phénomène de l’IA se développe aussi vite que les interrogations se multiplient. Les enjeux sont énormes, puisque la liberté des médias est un des piliers de la démo- cratie. « Les politiques publiques doivent, à mon sens, s’emparer de vraies questions au niveau national et international, expose Akila Nedjar Guerre. Tout d’abord, à qui appartient cette donnée IA d’un point de vue juridique ? Les grandes entreprises privées qui élaborent des IA pourraient participer financièrement, à partir du moment où elles prélèvent des sources dans les médias. Ensuite, le pourcentage de fiabilité de l’information fournie peut être indiqué, afin d’en connaître sa qualité. Enfin, une forme de gouvernance de l’IA, ouverte bien au-delà de ceux qui la produisent, peut être instaurée. »
En mai, le journal Le Monde et la société américaine Perplexity ont signé un accord afin de clarifier les positions et générer des améliorations réciproques.
Yann Mainguet