L’auteur du fugace compte Twitter « L’Assemblée sur Wikipédia », un bot notifiant tout caviardage(1) de pages Wikipédia des élus français, nous parle du système de bots en général. Un outil qui permet une guerre d’influences sans merci entre les plus grandes puissances mondiales, et à l’insu de la majorité du peuple-internaute.
Le 15 mai 2020, un anonyme ouvre le compte Twitter @wiki-assemblee, un bot programmé pour publier une notification à chaque fois qu’un élu modifie sa page Wikipédia. Le bot repère tout ce qui provient des ordinateurs de l’Assemblée et relaie également les pages modifiées par le passé, avec les versions avant / après.
On découvre des conflits d’intérêts que certains voulaient rendre invisibles, on y gomme les mentions votées sur les textes de loi, on essaie de supprimer les occurrences à des articles de presse compromettants. Bref, ce compte est créé dans un geste humoristique et citoyen. En sept jours, il récolte plus de 24 000 abonnés. Un chiffre qui signifie que les « twittos » sont à l’affut de ce genre d’informations, et que les démarches de lanceurs d’alerte, même humoristiques, sont très suivies.
Mais voilà, patatras, sept jours après l’ouverture du compte qui excite la twittosphère et fait trembler les faussaires wikipédiens, 145 caractères sonnent le glas :
“Ce compte va cesser son activité. Merci à tous les Wikimédiens pour leur travail et leur gentillesse ainsi qu’aux médias qui ont relayé ce projet”
On imagine aisément que le pauvre humain caché derrière le bot a dû subir des pressions lui ôtant le goût de plaisanter en affichant les députés filous. Il part en donnant une sorte de mode d’emploi à qui veut prendre la relève, et oriente les affamés, euh les abonnés, vers d’autres comptes similaires. La vigilance LOL semble bien partagée sur Twitter, on découvre notamment CollaBot, qui “Vous tient au courant du mercato des conseillers parlementaires.” et affiche un portrait de Pénélope Fillon en photo de profil. Mais on parle ici de bots justiciers, de voix citoyennes qui veulent informer le plus grand nombre des fonctionnements planqués de l’hémicycle et de ses couloirs. Sauf que des bots Twitter, il en existe une palanquée, aux ambitions plutôt contraires à celles évoquées juste avant. Outil de manipulation majeur, puissant agent publicitaire, le bot Twitter revêt des costumes différents selon ses concepteurs. S’y intéresser permet de mieux comprendre les guerres d’influences que se livrent les puissances mondiales sur ce réseau.
Olivier(2), malgré sa décision de clôturer le compte « L’Assemblée sur Wikipédia », accepte tout de même l’interview que nous avions planifiée. Anonymat et mystère guident ce jeu de questions-réponses, auquel le jeune ingénieur en IA (il a moins de trente ans) s’est prêté avec volubilité. Il nous éclaire sur l’occulte univers des bots.
Avant toute chose, pourriez-vous expliquer à tout le monde ce qu’est un bot Twitter ?
Olivier : C’est un compte automatisé qui réalise des actions selon un programme. Il interagit sur les réseaux sociaux à la manière d’un humain, mais il est artificiel.
Quels ont été les premiers bots sur Twitter (le réseau a été créé en 2006) et à quoi servaient-ils ?
Olivier : Les premiers étaient humoristiques, c’est dans l’ADN de la plateforme. Vers 2009 par exemple, un mec avait fait un bot qui tweettait dès que son café était prêt. Mais il y a eu aussi TAY, le bot de Microsoft qui apprenait les phrases des gens et les répétait. L’extrême droite l’a récupéré et lui faisait dire des choses très racistes…Ça s’est mal terminé !
Quelles compétences faut-il avoir pour concevoir son bot sur Twitter ?
Olivier : Il existe un service clé en main qui permet de concevoir son bot. Je dirais qu’il faut un mois d’apprentissage du langage de programmation Python, qui est très simple, pour être en mesure de créer son bot.
Mais une nouvelle génération de bots arrive, basée sur l’IA, qui est une boîte noire, même pour ses concepteurs. On ne peut pas expliquer ses actes et ça pose problème. Le grand public s’est fait berner par le terme IA : Siri ou Google Assistant ont été conçu manuellement par des ingénieurs qui ont écrit une à une les actions. Du coup, elles fonctionnent mieux que les autres mais ne savent pas faire grand-chose. Nous n’avons pas fait de vrais progrès dans les bots classiques depuis 10 ans.
Les réseaux sociaux se sont faits envahir de bots malveillants, (russes notamment) et Twitter est le dernier réseau à les tolérer, même si c’est limité. Il y a des règles. Le bot doit préciser qu’il n’est pas humain, mais ça n’est pas visible pour les internautes. À l’inverse, si vous voulez créer 500 bots, il vous suffit de faire semblant d’être humain. C’est le jeu du chat et de la souris.
Connait-on la part d’humains et de bots présents sur Twitter ?
Olivier : C’est un chiffre très débattu, qui varie en 10 et 40% de bots estimés. Je penche pour 40%. Vous savez, le rapport à Twitter a beaucoup changé. Au début, tout le monde y disait ce qu’il pensait tout le temps et c’est pourquoi le réseau constituait un juste reflet de l’opinion publique, mais ce n’est plus le cas. Pourtant, beaucoup s’en servent encore pour sonder l’opinion publique et faire des études, alors que c’est devenu biaisé.
Qui utilise majoritairement ce système de bots et à quelles fins ?
Olivier : Les Russes. C’est drôle parce qu’Emmanuel Macron se méfie de l’influence russe sur les élections présidentielles, or la majorité des bots Twitter français proviennent du parti En Marche ! Les trois partis français qui utilisent le plus ces technologies sont Les Insoumis, Le RN et En Marche.
L’outil-même du bot est-il une marchandise qui se vend et s’achète ?
Olivier : Oui c’est un marché. Il existe deux types de ventes : l’achat de pages appartenant à des gros comptes. Par exemple, une page Facebook très suivie peut être rachetée par une entreprise qui va en changer le contenu, la ligne éditoriale, sans que les abonnés ne soient prévenus. Ça peut valoir 10 000, 20 000 euros. Puis il y a le marché des bots dormants. On peut lancer un filtre à bots Twitter pour connaître l’âge des comptes (les plus vieux sont les plus chers) et on peut vendre des bots par paquets de 1 000 ! On en revient au jeu du chat et de la souris entre les équipes des réseaux sociaux qui les chassent, et ceux qui tentent de leur échapper. Sur Facebook, on parle de fermes de comptes. C’est devenu plus simple d’en constituer grâce aux IA qui peuvent générer seules du contenu, générer des photos avec des visages humains uniques qui sont de leur création et très réalistes. Les photos de profil sont changées tous les mois, les faux comptes échangent des messages entre eux pour faire crédibles et ressembler, aux yeux des « chasseurs », à un vrai groupe d’amis.
Qui est le plus avancé sur ces technologies et à quoi vont-elles ressembler ?
Olivier : Les Russes sont les plus avancés mais les Chinois y travaillent intensément. Les Russes ont une approche plus fine. Chez eux, une personne gère des ruches de bots qui visent à influencer l’opinion publique. Les post sont écrits par l’humain. Ils se font passer soit pour l’extrême droite, soit pour l’extrême gauche occidentales pour influencer. On a découvert aussi qu’une grosse page Facebook américaine, qui prône la vente d’armes, est en fait tenue par des Russes. Leur technique : mettre de l’huile sur le feu des deux côtés extrêmes pour diviser. En Chine, l’approche est plus frontale. Il y a des trolls engagés pour écrire des commentaires à la gloire du Part Communiste, qui sont payés 50 cents par post. Ils sont très actifs sur YouTube, Facebook et Reddit. J’ai travaillé avec une équipe française dans un labo concurrent de Palantir (NDLR, entreprise américaine analyste de BigData, qui renseigne CIA, FBI et NSA) pour détecter ces bots mais ça commence à montrer ses limites. J’ai peur qu’on ne puisse bientôt plus les détecter… Pour info, en France, quand on travaille à cela du côté du « bon », c’est-à-dire pour la DGSE, on est payé 30 000 euros. Aux États-Unis, c’est 130 000 euros pour aider le gouvernement.
Vous m’écriviez en message Twitter que vous deviez partir pour la Sillicon Valley, travailler dans un labo qui combat ces technologies de l’IA, mais, je cite, le Covid en a décidé autrement. De quel labo s’agit-il et combien en dénombre-t-on aujourd’hui ?
Olivier : Je ne peux hélas pas vous révéler son nom, mais je peux vous dire qu’il existe une demi-douzaine de ces labos dans le monde, basés principalement aux États-Unis. Le problème, c’est que les réseaux sociaux veulent faire eux-mêmes leur modération, mais ça se passe mal pour des raisons politiques et managériales. Ils ont trop misé sur l’IA. Facebook et YouTube rêvent de supprimer la modération faite par l’humain. Mais comme je vous le disais, l’IA est comme une boite noire. Par exemple, les Chinois ont créé des bots qui sur YouTube, suppriment tout commentaire critiquant le parti en place. Ils sont parvenus à manipuler l’algorithme de YouTube pour lui faire faire ce qu’ils voulaient. C’est de la censure algorithmique. À la Sillicon Valley (j’y ai déjà travaillé un an) les algorithmes de modération automatisée font consensus : tout le monde veut revenir à une modération manuelle. Mais c’est un travail mal payé, au SMIC (parfois moins) aux États-Unis, et on a réalisé que la modération manuelle était très orientée pro-Trump…
Pour terminer, un petit mot quand même sur votre furtif et flamboyant bot « L’Assemblée sur Wikipédia ». Vous avez mis en lumière un nouveau concept, celui du vandalisme Internet (ce qui fait de vous un justicier). Que font concrètement les « vandales » ?
Olivier : Le vandalisme prend plusieurs formes. C’est d’abord la suppression d’information, c’est ce qui était relayé par le bot wiki-assemblee. Ils peuvent aussi faire de l’ajout d’informations, qui vise à noyer les autres infos que l’on veut voir disparaître, les reléguant aux pages 20 des moteurs de recherches. Il y a aussi l’insulte pour discréditer. En tout cas, j’avais vraiment ouvert ce compte pour rire, puis comme j’ai trouvé des trucs de plus en plus graves, c’est devenu moins drôle. Plus politique.
Propos recueillis par Nathalie Troquereau
Le 1er juin 2020, après la rédaction de cet article, le bot « Les Politiques sur Wikipédia » était lancé, avec ce petit texte introductif :
« Suite aux révélations de vandalisme sur Wikipédia par Laetitia Avia, et à l’arrêt de @wiki_assemblee, j’ai conçu ce bot pour tweeter toutes les modifications de contenu depuis les IPs de plusieurs institutions : Elysée, Matignon, Parlements, ministères…»
(1) Caviardage : Qui consiste à supprimer les passages d’un texte.
(2) Le prénom a été changé.
Pour aller plus loin :