Accéder au contenu principal
Internet

Contre les trolls, les médias lancent l’artillerie lourde

En ce début d’année 2017, beaucoup de médias semblent entrer réellement dans la chasse aux commentaires haineux sur Internet. Un site norvégien oblige désormais ses lecteurs à lire les articles avant de les commenter. Et Google propose aux médias qui le souhaitent un logiciel anti-trolls pour gérer en amont leurs commentaires.

Pour contenir le flot verbal des trolls, la Norvège tente une riposte.
Pour contenir le flot verbal des trolls, la Norvège tente une riposte. Getty Images/Meriel Jane Waissman
Publicité

Nul n’est prophète en son pays, pas même les trolls en Norvège. Depuis le 13 février dernier, NRKbeta, la filiale tech du réseau public de radio-télévision norvégien, a lancé un nouvel outil pour combattre sur son site les commentaires malveillants, couramment appelés « trolls », comme les créatures de la mythologie nordique.

Dorénavant, pour commenter un article sur NRKbeta, les internautes devront répondre à trois questions concernant celui-ci. L’objectif est simple : il faut avoir lu l’article pour pouvoir commenter.« Généralement, on voit que beaucoup ne lisent que le titre et quelques lignes avant de se ruer sur le champ des commentaires pour participer au débat, déplore Marius Arnesen, le rédacteur en chef de NRKbeta interrogé par l’AFP. En posant trois questions tirées du texte, on s’assure que la discussion démarre autour d’une base de connaissances communes. »

En Norvège, la caverne des trolls est maintenant bien gardée
En Norvège, la caverne des trolls est maintenant bien gardée DR

« Connaître les motivations de ces empêcheurs d’écrire tranquille »

Si la question des trolls sur Internet ne date pas d’hier, les grands médias commencent tout juste à s’en préoccuper de manière proactive. Le 29 août 2016, la une du magazine américain Time était consacrée à une longue enquête du journaliste Joel Stein, titrée « Pourquoi nous sommes en train d’abandonner Internet à la culture de la haine ? » et illustrée par un troll assis, un ordinateur portable sur ses genoux.

Plus récemment, le 3 mars dernier, M, le magazine hebdomadaire édité par Le Monde, a publié un long article dressant le portrait de contributeurs « choisis pour leur fréquentation assidue, leur indéniable mordant mais aussi pour la tenue de leurs textes, loin des borborygmes et des insultes gratuites trop souvent repérées », annonce Benoît Hopquin, auteur de l’enquête. Pas question de trolls, donc, mais il s’agissait bien de « connaître les motivations de ces empêcheurs d’écrire tranquille », dont « un regard sur leur ­ situation sociale permet d’affirmer qu’ils ne sont pas plus mal lotis que les journalistes qu’ils tancent ou les personnes ­citées dans l’article qu’ils brocardent », ajoute le journaliste.

Cette curiosité, voire cette inquiétude des médias face à la violence de leur section « commentaires », les poussent aujourd’hui à agir. Si la plupart des grands médias (dont RFI) emploient des modérateurs, de plus en plus se lancent dans l’utilisation d’algorithmes pour filtrer leurs commentaires en amont de l’intervention humaine.

Analyser la « toxicité » d’un commentaire via l’IA de Google

Parmi eux, quelques membres de la Digital News Initiative - un projet de partenariat sur l’innovation entre Google et plusieurs médias européens comme The Guardian, The Financial Times ou The Economist, lancé en 2015 - ou encore The New York Times, ont été séduits par la nouvelle trouvaille du géant du Web, le logiciel Perspective.

Lancé en septembre 2016 et disponible depuis le 23 février dernier par Jigsaw (ex-Google Ideas), un incubateur d’Alphabet, la maison-mère de Google, Perspective est une API (interface de programmation) qui s’appuie sur une intelligence artificielle appelée Conversation AI, pour analyser le caractère abusif ou insultant d’un commentaire en lui attribuant un score de « toxicité » de 0 à 100.

Pour ceux qui voudraient modérer les commentaires sur un site internet,« les seuls options qui s’offraient à eux étaient de voter positivement ou négativement, de désactiver entièrement les commentaires ou de modérer manuellement », explique au magazine Wired C.J. Adams, chef de produit chez Jigsaw. « Perspective leur donne une nouvelle option : exploiter l’intelligence collective - qui ne peut que s’améliorer - pour savoir quels commentaires abusifs inciteraient les gens à partir et utiliser ces informations pour améliorer les discussions de leur communauté. »

Wikipedia a utilisé Conversation AI pour mener une étude sur ses pages de discussion, The New York Times prévoit de l’utiliser comme porte d’entrée vers ses commentaires avant l’intervention de ses propres modérateurs et The Guardian et The Economist envisagent tous deux de l’utiliser à leur tour.

Un outil de censure ?

Selon Wired, Jared Cohen, président de Jigsaw, espère que Conversation AI puisse être adapté à d’autres langues, comme le russe, afin de contrer le trolling d’Etat, comme dans l’affaire de l’Agence de l’investigation de l’Internet, l’usine à trolls basée à Saint-Pétersbourg condamnée par la justice russe en août 2015.

Ce qui est sûr, c’est que, pour l’instant, Perspective ne fonctionne qu’avec la langue anglaise, et encore… Récemment, le projet a été la cible de plusieurs critiques. Les plus iniques, comme celle du site américain Breitbart, qui qualifie Perspective de « bot de censure » et qui s’insurge contre « la guerre de la gauche sur les commentaires » (sic). Mais aussi les plus argumentées, comme celle du chercheur et ingénieur au MIT David Auerbach, qui estime que Perspective se concentre trop sur les mots et pas assez sur leur sens : « " Trump craint " fait un score colossal de 96 % de toxicité, alors que le code néonazi " 14/88 " ne fait que 5 % », dénonce-t-il.

De leur côté, quatre chercheurs de l’Université de Washington ont publié, le 27 février dernier, un papier démontrant, tableau à l’appui, qu’ils pouvaient perturber l’intelligence artificielle de Jigsaw en insérant de la ponctuation au milieu d’un mot ou simplement en l’écrivant avec une faute d’orthographe. Surtout, le bot ne parviendrait pas du tout à identifier ce que les chercheurs appellent les « false positives », c’est-à-dire des phrases qui ne sont aucunement abusives ou insultantes mais qui sont composées de termes qui le sont (« pas idiot » obtient un score presque équivalent à « idiot », par exemple).

Les chercheurs se sont amusés à "perturber" Perspective... et ils ont réussi.

C.J. Adams a très vite répondu aux chercheurs : « C’est super de voir un tel travail de recherche, peut-on lire dans ARS Tecnica. […] Nous accueillons tous les chercheurs à joindre leurs efforts aux nôtres sur [la plateforme dédiée aux développeurs] GitHub et à explorer comment nous pourrions collaborer pour identifier les défauts du modèle existant et trouver des moyens de les régler. »

La diffusion gratuite et en « open source » devrait effectivement éviter que Perspective soit un moyen de « satisfaire les nobles principes de Google », comme l’affirme Breitbart, plein d’ironie. D’ailleurs, NRKbeta, le média norvégien, prévoit lui aussi d’ouvrir son outil aux développeurs : « Le plugin sera bientôt disponible pour tout le monde sous une licence " Creative Commons " de WordPress », affirme à RFI Marius Arnesen, président de NRKbeta.

Aujourd’hui, ces deux projets en sont encore au stade expérimental. Perspective est « une étape, pas une solution, a confié Jared Cohen à Wired. Nous ne prétendons pas avoir créé la panacée pour ce problème de commentaires toxiques ». Marius Arnesen, lui, pousse la réflexion encore plus loin : « Nous ne sommes pas sûrs, à ce jour, de ce qui définirait la réussite de notre projet. Serait-ce un succès d’avoir plus de commentaires ? Moins de commentaires ? De meilleurs commentaires ? Comment mesure-t-on la qualité des commentaires ? Nous espérons obtenir des réponses à ces questions dans les semaines ou les mois qui viennent, nous n’avons pas fixé de date de fin et nous laissons ce projet expérimental et ouvert afin de pouvoir le poursuivre ou l’annuler selon ce que les résultats nous disent. »


Et du côté des réseaux sociaux ?

En mai 2016, la Commission européenne pousse Google, Facebook, Twitter et Microsoft à signer un code de conduite afin de lutter contre les propos haineux sur Internet.

En octobre 2016, Microsoft intègre une fonction permettant de signaler les abus sur ses services, dont Skype, Outlook et Xbox.

Le 7 février 2017, Twitter, en retard sur la lutte contre le trolling, lance une première salve de mesures anti-troll, comme la réduction des notifications de personnes bloquées ou mises sous silence.

Le 1er mars 2017, Twitter annonce de nouvelles fonctionnalités pour lutter contre les propos haineux sur sa plateforme, comme le filtrage des comptes « à tête d’œuf » ou qui n’ont pas renseigné leur adresse e-mail ou leur numéro de téléphone.

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Partager :
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.