rfi

À l'écoute
  • Direct Monde
  • Direct Afrique
  • Dernier journal Monde
  • Dernier journal Afrique
  • Dernier journal en Français facile
  • Dernier journal Amériques - Haïti
  • Pakistan: au moins cinq morts dans une attaque suicide contre une église, selon les autorités
  • Aéronautique: deuxième vol réussi pour le C919, moyen-courrier rival chinois d'Airbus et Boeing (CCTV)
  • Espace: une fusée «Soyouz» s'envole vers la station spatiale internationale (ISS) avec trois astronautes à bord

Réseaux sociaux Internet médias twitter Google

Publié le • Modifié le

Contre les trolls, les médias lancent l’artillerie lourde

media
Pour contenir le flot verbal des trolls, la Norvège tente une riposte. Getty Images/Meriel Jane Waissman

En ce début d’année 2017, beaucoup de médias semblent entrer réellement dans la chasse aux commentaires haineux sur Internet. Un site norvégien oblige désormais ses lecteurs à lire les articles avant de les commenter. Et Google propose aux médias qui le souhaitent un logiciel anti-trolls pour gérer en amont leurs commentaires.


Nul n’est prophète en son pays, pas même les trolls en Norvège. Depuis le 13 février dernier, NRKbeta, la filiale tech du réseau public de radio-télévision norvégien, a lancé un nouvel outil pour combattre sur son site les commentaires malveillants, couramment appelés « trolls », comme les créatures de la mythologie nordique.

Dorénavant, pour commenter un article sur NRKbeta, les internautes devront répondre à trois questions concernant celui-ci. L’objectif est simple : il faut avoir lu l’article pour pouvoir commenter. « Généralement, on voit que beaucoup ne lisent que le titre et quelques lignes avant de se ruer sur le champ des commentaires pour participer au débat, déplore Marius Arnesen, le rédacteur en chef de NRKbeta interrogé par l’AFP. En posant trois questions tirées du texte, on s’assure que la discussion démarre autour d’une base de connaissances communes. »

En Norvège, la caverne des trolls est maintenant bien gardée DR

« Connaître les motivations de ces empêcheurs d’écrire tranquille »

Si la question des trolls sur Internet ne date pas d’hier, les grands médias commencent tout juste à s’en préoccuper de manière proactive. Le 29 août 2016, la une du magazine américain Time était consacrée à une longue enquête du journaliste Joel Stein, titrée « Pourquoi nous sommes en train d’abandonner Internet à la culture de la haine ? » et illustrée par un troll assis, un ordinateur portable sur ses genoux.

Plus récemment, le 3 mars dernier, M, le magazine hebdomadaire édité par Le Monde, a publié un long article dressant le portrait de contributeurs « choisis pour leur fréquentation assidue, leur indéniable mordant mais aussi pour la tenue de leurs textes, loin des borborygmes et des insultes gratuites trop souvent repérées », annonce Benoît Hopquin, auteur de l’enquête. Pas question de trolls, donc, mais il s’agissait bien de « connaître les motivations de ces empêcheurs d’écrire tranquille », dont « un regard sur leur ­ situation sociale permet d’affirmer qu’ils ne sont pas plus mal lotis que les journalistes qu’ils tancent ou les personnes ­citées dans l’article qu’ils brocardent », ajoute le journaliste.

Cette curiosité, voire cette inquiétude des médias face à la violence de leur section « commentaires », les poussent aujourd’hui à agir. Si la plupart des grands médias (dont RFI) emploient des modérateurs, de plus en plus se lancent dans l’utilisation d’algorithmes pour filtrer leurs commentaires en amont de l’intervention humaine.

Analyser la « toxicité » d’un commentaire via l’IA de Google

Parmi eux, quelques membres de la Digital News Initiative - un projet de partenariat sur l’innovation entre Google et plusieurs médias européens comme The Guardian, The Financial Times ou The Economist, lancé en 2015 - ou encore The New York Times, ont été séduits par la nouvelle trouvaille du géant du Web, le logiciel Perspective.

Lancé en septembre 2016 et disponible depuis le 23 février dernier par Jigsaw (ex-Google Ideas), un incubateur d’Alphabet, la maison-mère de Google, Perspective est une API (interface de programmation) qui s’appuie sur une intelligence artificielle appelée Conversation AI, pour analyser le caractère abusif ou insultant d’un commentaire en lui attribuant un score de « toxicité » de 0 à 100.

Pour ceux qui voudraient modérer les commentaires sur un site internet, « les seuls options qui s’offraient à eux étaient de voter positivement ou négativement, de désactiver entièrement les commentaires ou de modérer manuellement », explique au magazine Wired C.J. Adams, chef de produit chez Jigsaw. « Perspective leur donne une nouvelle option : exploiter l’intelligence collective - qui ne peut que s’améliorer - pour savoir quels commentaires abusifs inciteraient les gens à partir et utiliser ces informations pour améliorer les discussions de leur communauté. »

Wikipedia a utilisé Conversation AI pour mener une étude sur ses pages de discussion, The New York Times prévoit de l’utiliser comme porte d’entrée vers ses commentaires avant l’intervention de ses propres modérateurs et The Guardian et The Economist envisagent tous deux de l’utiliser à leur tour.

Un outil de censure ?

Selon Wired, Jared Cohen, président de Jigsaw, espère que Conversation AI puisse être adapté à d’autres langues, comme le russe, afin de contrer le trolling d’Etat, comme dans l’affaire de l’Agence de l’investigation de l’Internet, l’usine à trolls basée à Saint-Pétersbourg condamnée par la justice russe en août 2015.

Ce qui est sûr, c’est que, pour l’instant, Perspective ne fonctionne qu’avec la langue anglaise, et encore… Récemment, le projet a été la cible de plusieurs critiques. Les plus iniques, comme celle du site américain Breitbart, qui qualifie Perspective de « bot de censure » et qui s’insurge contre « la guerre de la gauche sur les commentaires » (sic). Mais aussi les plus argumentées, comme celle du chercheur et ingénieur au MIT David Auerbach, qui estime que Perspective se concentre trop sur les mots et pas assez sur leur sens : « " Trump craint " fait un score colossal de 96 % de toxicité, alors que le code néonazi " 14/88 " ne fait que 5 % », dénonce-t-il.

De leur côté, quatre chercheurs de l’Université de Washington ont publié, le 27 février dernier, un papier démontrant, tableau à l’appui, qu’ils pouvaient perturber l’intelligence artificielle de Jigsaw en insérant de la ponctuation au milieu d’un mot ou simplement en l’écrivant avec une faute d’orthographe. Surtout, le bot ne parviendrait pas du tout à identifier ce que les chercheurs appellent les « false positives », c’est-à-dire des phrases qui ne sont aucunement abusives ou insultantes mais qui sont composées de termes qui le sont (« pas idiot » obtient un score presque équivalent à « idiot », par exemple).