L’Institut de Journalisme de Bordeaux Aquitaine (IJBA) et le laboratoire de recherche MICA ont organisé, le 10 novembre dernier, une journée de réflexion sur le rôle des algorithmes dans les pratiques journalistiques. L’évènement a eu lieu dans les bâtiments de l’IUT Bordeaux Montaigne, en présence d’un public composé d’étudiants en journalisme de l’IJBA et de curieux, journalistes ou non. Une dizaine de chercheurs et professionnels de l’information ont tenté d’analyser la place occupée par les algorithmes dans le traitement de l’actualité.

Que sont les algorithmes ? Il s’agit « d’actants invisibles qui structurent notre rapport au monde et à l’information » précise Rayya Roumanos, enseignante-chercheure à l’IJBA, à l’initiative de cette rencontre. Ils sont massivement utilisés par les entreprises privées et les administrations publiques, mais leur fonctionnement et leur influence échappent encore à la vigilance des citoyens et des journalistes. C’est donc pour s’attaquer de front à ce problème que la journée d’étude, co-animée par Olivier Le Deuff, enseignant-chercheur au MICA, a été pensée. Elle s’inscrit dans le cadre du projet Algo-J, financé par la Région Nouvelle-Aquitaine.

Dans la première partie de la matinée, Michaëla Cancela-Kieffer (AFP), Hubert Guillaud (journaliste indépendant), Soizic Pénicaud (experte indépendante), Frédéric Sallet (Sud Ouest) et Emmanuelle Saillard (INRIA) sont revenus sur les difficultés des enquêtes sur les algorithmes. Ils ont d’abord proposé une définition de ces derniers, avant d’expliquer qu’ils ne sont pas qu’une suite de procédés techniques, mais des systèmes de calcul éminemment politiques. La pensée de la personne qui crée un algorithme peut engendrer des biais, voire des inégalités de traitement. Le journaliste Hubert Guillaud a par exemple évoqué l’algorithme de Parcoursup, qui « fait des différences entre des élèves même s’ils n’ont que 0,01 point d’écart sur leur moyenne ».

AlgorithmWatch détecte les biais des algorithmes

Dans la seconde partie de la matinée, le data journaliste Nicolas Kayser-Bril a pris le temps d’aborder son travail au sein de l’organisation « AlgorithmWatch ». Connecté en visioconférence, il a détaillé les activités de recherche de l’ONG, qui œuvre pour améliorer la transparence autour du mode de fonctionnement des algorithmes. Il a notamment expliqué les biais présents dans les systèmes « input/output », en prenant l’exemple de la fonctionnalité de reconnaissance de Google.

« Une personne noire qui tenait un thermomètre était considérée comme quelqu’un avec un pistolet en main, tandis qu’une personne blanche était perçue par l’algorithme comme étant détentrice d’un monoculaire », indique le data journaliste. Le problème a été corrigé par la firme à la suite de cette découverte, mais il est un exemple concret des déformations que peuvent produire ces systèmes de calcul.

Les femmes encore trop peu présentes dans la presse

Après une pause de 2 h, la journée s’est poursuivie par une « carte blanche » de la journaliste responsable de la cellule audio de l’AFP, Michaëla Cancela-Kieffer. L’agencière a choisi d’aborder le projet international « AIJO » (AI pour intelligence artificielle, JO pour journalisme), destiné à améliorer la représentation des femmes dans la presse grâce à l’IA. Il a permis de détecter des stéréotypes liés au genre dans les pratiques journalistiques, et de mesurer la place des femmes dans les contenus. Plusieurs médias, dont des agences de presse et des quotidiens, ont participé en fournissant les photos de leurs Unes. Résultat : les femmes ne représentaient que 28 % des images analysées, selon l’étude du projet « AIJO ».

Michaëla Cancela-Kieffer rappelle également que les applications de l’intelligence artificielle dans les médias sont multiples. Cet outil est utilisé pour mener des enquêtes, pour identifier des réseaux d’influence, pour vérifier des informations, mais aussi pour faire du « journalisme prédictif ». Ce dernier pourrait être défini comme une branche du data journalisme, permettant de détecter des tendances, et d’établir des prévisions.

Analyse du traitement médiatique de l’IA

La journée s’est ensuite poursuivie par une analyse du traitement médiatique de l’intelligence artificielle, proposée par Maxime Crépel. Il est revenu sur le projet « Algoglitch », lancé en 2018 par le laboratoire interdisciplinaire de Sciences Po « médialab« . Cette enquête comparative, réalisée sur des médias américains et britanniques, cherchait à comprendre les caractéristiques du traitement médiatique des algorithmes. Dans ce cadre, il a été montré que les médias perçoivent les robots et les algorithmes comme deux choses différentes. Les premiers cités sont associés à des machines, souvent en rapport avec le futur, tandis que les algorithmes sont davantage liés à des logiciels précis, et à des problèmes de sécurité par exemple.

Les algorithmes dans les stratégies éditoriales des médias

La dernière table ronde s’intéressait quant à elle à l’impact des algorithmes sur les stratégies éditoriales. Les journalistes Muriel Beasse (Lisec), Bénédicte Courret (Radio France), Olivier Laffargue (Le Monde) et Alexandre Marsat (Curieux !) étaient réunis pour aborder le sujet. Tous se sont accordés sur un point : les rédactions doivent prendre en compte leur référencement, que ce soit sur Google ou sur les réseaux sociaux. Il est important, selon eux, de s’adapter aux algorithmes des plateformes en plaçant des mots-clés dans le titre, ou en insérant des liens dans les articles.

Alexandre Marsat, rédacteur en chef du média Curieux ! appuie sur l’importance de « bien définir son lectorat cible, et de conserver son image de marque ». Le journaliste du Monde Olivier Laffargue, lui, estime que la solution pour ne pas négliger les sujets qui plaisent moins, c’est de travailler la forme, en plus du fond. Il insiste également sur le fait de susciter la curiosité, et d’aider à la compréhension.

La journée s’est terminée par une conférence de clôture, en présence de Thibault Phillipette, professeur à l’Université Catholique de Louvain. Celle-ci portait sur les défis de la littératie algorithmique et les modes d’accompagnement de la pensée critique par le design.  Il a notamment parlé de la plateforme « Alvexo », qui permet de gérer les différents critères de recommandation. L’objectif était de se rendre compte de l’impact des algorithmes sur les contenus qui nous sont suggérés.

Luigy Lacides

——————-

Illustration : De gauche à droite, Hubert Guillaud, Alexandre Marsat, Frédéric Sallet, Bénédicte Courret, Rayya Roumanos,Olivier Le Deuff, Arnaud Schwartz et Thibault Phillipette / Justine Roy

logo CIVB new