Au-delà des innovations actuellement expérimentées dans les rédactions pour intégrer l’intelligence artificielle au travail des journalistes, ces technologies soulèvent des questions, tant sur les plans opérationnel, déontologique que social.
L’annonce quelques jours plus tôt du partenariat du journal Le Monde (et son homologue espagnol Prisa Media) avec Open AI n’aura pas manqué d’être commenté lors des Assises de Tours. Cet accord permet aux utilisateurs de ChatGPT d’accéder au contenu du quotidien, qui sera référencé, le tout contre rémunération de la part de la société américaine à l’origine de l’outil d’intelligence artificielle (IA) générative ChatGPT.
« Nous sommes assez inquiets de voir Le Monde partir seul au combat. Les éditeurs auraient pu y aller de façon groupée et négocier ensemble. Se pose aussi la question de pourquoi choisir d’ouvrir ces données à une IA américaine alors que pas mal de start-up françaises et européennes essaient de lutter contre l’hégémonie américaine », déplore Carole Chatelain, présidente de l’Association des journalistes scientifiques de la presse d’information (AJSPI).
Côté éditeurs justement, l’Alliance de la presse d’information générale (APIG) défend l’idée que face à une IA générative consommatrice d’une grande quantité de données, les datas de la presse ont une valeur. « Il s’agit de la défendre auprès de ceux qui l’exploitent. Les éditeurs ont réservé leurs droits dans le cadre du lock-out prévu par les droits voisins », note Florent Rimbert, responsable du développement numérique de l’APIG.
Par ailleurs, l’IA interroge aussi sur ses répercussions sur la profession de journalistes. « Cela pose des questions éthiques, de posture de chacun. Comment procéder désormais pour faire le tri entre les publications scientifiques, dont on sait aujourd’hui que trois sur dix mille sont générées par une IA ou pour déceler les images créées par l’IA, devenues pour beaucoup indétectables ? », interroge Carole Chatelain. « Cela soulève la question de la vérification des informations et des images générées par l’IA. Il en va d’un enjeu démocratique », assure la directrice adjointe de France info, Estelle Cognacq.
A cet égard, le Conseil de déontologie journalistique et de médiation (CDJM) a publié une recommandation sur l’usage de l’IA. « Nous avons adopté une approche constructive en réfléchissant par niveaux de risques, sur le modèle de l’IA Act européen », indique Yann Guégan, vice-président du CDJM (1). Trois catégories d’outils basés sur l’IA ont ainsi été retenues. « Les outils à faible risque, par exemple de transcription d’audio en texte, qui n’ont pas besoin d’être signalés, car en cas de doute, le journaliste peut réécouter l’enregistrement. Les outils à risque modéré, comme la synthèse vocale ou le résumé d’article : là le lecteur y est directement confronté, et nous considérons qu’il doit en être informé. D’autres utilisations sont à proscrire, car incompatibles avec les chartes de déontologie : c’est le cas de la génération de textes, d’images ou de sites sans supervision éditoriales », détaille Yann Guégan.
L’Association des journalistes scientifiques de la presse d’information redoute également qu’une fracture se fasse jour « entre les journalistes postés [rattachés à plein temps à une rédaction] qui bénéficieront des outils basés sur l’IA et les non postés [journalistes rémunérés à la pige notamment] qui ne pourront pas faire face à des abonnements de 20 euros par mois pour en bénéficier », souligne Carole Chatelain. Sans parler de la destruction d’emplois, redoutée comme dans tous les métiers.
(1) : recommandation du CDJM : « Journalisme et Intelligence Artificielle : les bonnes pratiques » (juillet 2023)
Texte : Gaëlle Ginibrière, journalisme et co-pilote de la commission EMI du Club.