Médias, Réseaux sociaux, Technologie - Technique

Modération du web, entre éditorialisation humaine et censure algorithmique

9 minutes
Qu’il s’agisse de discussions sur les forums, de commentaires d’articles de presse, de vidéos ou d’images postées sur les réseaux sociaux, partout, les modérateurs trient, encadrent, privilégient ou retirent les contenus qu’ils ont la charge de gérer. Bénévoles et professionnels se partagent la tâche, s’appliquant à faire respecter la loi et les conditions posées par le site qui diffuse les contenus. La modération s’opère dans l’ombre, en amont ou en réponse à des signalements. Résultat, quand l’internaute pense pénétrer dans la jungle du web, il n’en observe en fait que les morceaux choisis. Mais alors, la modération est-elle une fabrique de la censure ou un élagage nécessaire au vivre-ensemble sur le web ?

La modération est une des multiples faces cachées du web. Avoir conscience que les sites que nous parcourons sont crées de toutes pièces par des hommes et des femmes qui maîtrisent le langage de la programmation, (que nous sommes une majorité à ignorer) est un premier pas. Réaliser que tous les écrits que nous lisons, toutes les vidéos ou photos que nous regardons sur ces sites, plateformes ou réseaux sociaux, sont rendus visibles après l’intervention d’un modérateur, en est un second. Sans quoi, nous ressemblerions au héros du film The Truman Show, dont la vie entière est orchestrée par des tiers à son insu. Pour apprendre les différents langages informatiques, il existe pléthore d’écoles diplômantes. Pour la modération, zéro. Gérer le flot de commentaires qui transite au quotidien dans tous les recoins de la Toile ne mériterait pas de formation particulière avant embauche. Pourtant, les contenus diffusés par les internautes sont censés respecter la loi, le cadre légal posé par le pays dans lequel ils s’expriment. « Demain, vous et moi on peut devenir modérateurs » confirme Thibault Grison, qui consacre une thèse au sujet de la modération sur les réseaux sociaux.

SCAI logo du laboratoire sorbonne for artificial intelligence
Portrait du chercheur Thibault Grison

Thibault Grison poursuit ses recherches au sein du laboratoire SCAI de la Sorbonne, ouvert en 2019

Il faut dire que les modérateurs humains sont aidés par les algorithmes de modération, pensés pour soulager la tâche incommensurable de cette mission et pour éventuellement l’automatiser. C’est là où le bât blesse. Si l’action de modérer des contenus se voit souvent assimilée à une forme de cyber censure, lorsqu’elle est exécutée par des machines, l’inquiétude d’un lissage machinique des propos exprimés sur le web s’intensifie. Mais modérer les contenus diffusés sur Facebook France ou les commentaires postés sur le site du journal Le Parisien ne relève pas tout à fait du même travail. Meta (le groupe qui englobe Facebook, Instagram, Whatsapp…) sous-traite cette tâche à des entreprises et garde ce pan d’activité dans l’opacité. « Vous allez vous soumettre à un secret professionnel très strict. Au titre de mes recherches, certains modérateurs pour Accenture (le sous-traitant principal de Facebook) ont refusé de me parler car ils sont tenus au silence. Les entreprises comme Facebook disent ouvrir des cellules psychologiques pour eux, car ils sont exposés toute la journée à de la pédopornographie ou du terrorisme » relève le chercheur. Ceux-là ne sont confrontés qu’aux contenus déjà signalés par les internautes et identifiés comme illégaux et/ou choquants. « Ils ne voient passer que la boue » compatit Steve Bonet, directeur conseil et communication d’Atchik, acteur historique de la modération des conversations du web français. Son équipe compte un portefeuille de clients, allant du site Elysee.fr à celui de l’Assurance maladie, en passant par des sites médias comme rtl.fr ou encore Le Parisien. « Les commentaires de haine en ligne représentent environ 10 % des contenus qu’on gère. C’est à la fois beaucoup et peu, au regard de la perception qu’on peut en avoir » nuance-t-il.

Captures d’écrans tirées de Facebook le 29/03/22, à gauche l’article du Parisien et à droite les commentaires qui appariassent à sa suite, qui ne contreviennent pas au cadre légal ni à la charte de modération du site

Opaque et livré à au premier quidam volontaire, exercer le métier de modérateur revient-il à être le pantin d’une politique de censure, d’encadrement de la parole, que chaque plateforme donnerait comme feuille de route à appliquer stricto sensu ? « On ne fait pas de censure, on applique une charte de modération. Elle comprend deux aspects. Tout d’abord, le respect de la loi selon les pays. Par exemple, en France, on ne pourra pas laisser passer de commentaires négationnistes, ni d’apologie de crimes contre l’humanité. Pas de discrimination envers des religions ou des groupes de personnes. On se doit aussi de signaler des menaces d’attentat ou bien des propos suicidaires, sinon il s’agit de non assistance à personne en danger. Ça, c’est la partie légale. Après, on personnalise notre intervention, le but étant de déployer la ligne éditoriale des clients à travers l’espace des commentaires. Les médias ont envie d’avoir une communauté qui ressemble à leurs écrits, qui soit en phase avec leurs contenus rédactionnels » révèle Steve Bonet. Intéressant.

Si on repense au discours de l’autrice Lucie Ronfaut-Hazard, qui insiste sur la continuité entre la vie sur Internet et la vie loin des écrans dans son livre « Internet aussi, c’est la vraie vie », on s’interroge. Dans la rue ou ailleurs, si l’on décide d’exprimer une idée sulfureuse voire illégale, on le fait. Si une personne, heurtée par cette idée, décide de porter plainte, alors la justice devra faire son travail. Mais personne n’a pu anticiper que ce propos serait proféré, personne n’a pu l’empêcher d’être dit. Alors oui, Internet fait partie intégrante de notre vie, mais tout de même, les manières de s’y faire entendre et de s’y exprimer semblent parfois bien différentes. Au-delà d’une potentielle censure, certains propos seraient privilégiés, ou plutôt « valorisés » selon le jargon d’Atchik, qui assure à ses futurs clients : « nous valorisons les conversations en ligne de votre marque ».

capture d’écran de la page d’accueil du site Atchik

Mais parfois, c’est net. Le fait de censurer est tout à coup assumé par la plateforme. Quand Twitter décide de bannir le compte de Donald Trump, on se demande sur quels critères et on s’étonne de la rapidité de la sanction. Du jour au lendemain, le micro est coupé. Zip. On ferme le rideau.

« C’est une politique de la modération, explique Thibault Grison. Twitter aurait pu censurer Trump avant ou pas du tout. Ce qu’il est intéressant de voir, c’est à quel moment il décide de le faire. Au moment où on était sûrs que Biden allait passer. C’est un coup marketing pour dire ‘Twitter censure les propos qui propagent les fake news’. Aujourd’hui, on en revient au même débat avec le conflit Ukrainien et Facebook qui dit assouplir les règles de modération pour les discours anti-russes. Leurs règles de modération sont constitutives de l’identité de leur marque ». Ce n’est pas le directeur de la communication d’Atchik qui nous dira le contraire. Il acquiesce quand on suggère que la modération a tout à voir avec la e-réputation de ses clients. Mais encore une fois, les manières de faire chez les géants comme Instagram ou sur le site d’un média national divergent profondément. L’automatisation pour une plus grande rapidité et efficacité s’applique plutôt chez les GAFAM, alors que les petits comme Atchik travaillent « historiquement avec de la modération humaine, même si on se dote d’outils » explique Steve Bonet.

Ouf. On ne peut pas laisser un sujet comme la liberté d’expression aux seules mains des algorithmes. « Les algos sont bien en peine aujourd’hui de faire la différence entre des contenus illicites et des contenus qui dénoncent des contenus illicites, nous met en garde notre doctorant spécialiste de la question. Ou même des contenus qui reprennent des propos injurieux mais ne le sont pas. Prenez la réappropriation d’un terme comme pédé par les militants lgbt+. Quand vous censurez une personne homosexuelle qui utilise ce terme, vous ne prenez pas en compte le caractère militant du propos et vous censurez le militantisme » s’alarme-t-il.

Retrouvez les articles de Numerama, de l’ADN, de Mediapart et de Peaches qui évoquent tous la censure de certains termes par des algorithmes qui pratiquent la discrimination sous couvert de modération de la haine en ligne

Steve Bonet abonde dans ce sens et rapporte comment éviter une modération abusive. « Le mot pute peut qualifier quelqu’un en tant qu’insulte ou bien être un message qui dit ‘il faut arrêter de nous prendre pour des putes’. Là, on aura besoin d’interprétation humaine. L’IA qu’on utilise va nous aiguiller, nous dire que le message est plutôt discriminant ou insultant et celui-ci va partir dans une case spécifique, pour que le modérateur l’ait en tête lorsqu’il le traitera. »

Si un tel discours peut rassurer sur la part de l’intervention humaine, on reste en droit de s’interroger sur ce qui est rendu visible ou pas, ce qui est mis sur le haut du panier et ce qui est enfoui, caché ou carrément retiré. « On est un peu les physios d’Internet. Si le client dit exiger une tenue correcte à l’entrée de son établissement, on fait respecter cette consigne. Ça n’est pas de la censure. Ce sont les règles de fonctionnement pour rentrer chez lui. Ça peut être pas d’injures ou pas de gros mots. On a des graduations. Certains n’acceptent aucune vulgarité, d’autres accepteront la vulgarité dite de ponctuation comme ‘putain c’est génial !’ ou encore ‘merde, j’étais passé à côté de l’info’. Certains n’acceptent pas de liens vers des sites de médias concurrents, d’autres pas de liens du tout. Bref, ce n’est pas l’idée qui est censurée mais la forme. Comme en boîte de nuit. Si vous venez en short alors que c’est tenue correcte exigée, vous pourrez rentrer, à condition d’aller vous changer. Ce n’est pas la personne qu’on refuse, mais sa tenue » insiste le communicant.

Voilà une nouvelle manière de considérer Internet. Loin d’être une jungle, le net est un amoncellement de noms de domaines qui ne sont autres que des boutiques, des lieux de divertissement, des salles de conférences, des bibliothèques, des salles de jeux, des musées… Chaque page qui s’ouvre est un nouveau pas de porte à franchir, avec ses règles, ses coutumes, ses références et ses lois. Et chaque maison bien tenue possède un service de modération qui fera respecter sa charte. Encore un coup porté au mythe de l’objectivité. Rien n’est neutre, tout est éditorialisé, c’est pourquoi l’esprit critique est capital, dans la vie en ligne comme hors écrans.

Nathalie Troquereau

Pour aller plus loin :

>> Revoir ce documentaire du magazine Cash Investigation « Au secours, mon patron est algorithme !  »

>> Lire l’article de Thibault Grison et Virginie Julliard sur « Les enjeux de la modération automatisée sur les réseaux sociaux numériques : les mobilisations LGBT contre la loi Avia« 

>> Lire la série de trois articles d’Adrienne Rey intitulée « Opération net propre » sur le site Slate.fr

Cyberagressions : apprendre la self-défense numérique

La géopolitique des bots

Nathalie Troquereau

Nathalie Troquereau

Journaliste, rédactrice de contenus pour Médias-Cité.

SUR LE MÊME THÈME