Accéder au contenu principal
Chronique des médias

Élections européennes: quand le spectre de l'IA plane sur la manipulation de l'information

Publié le :

Retour sur le risque d’ingérences étrangères et de manipulations de l’information avant les élections européennes, en particulier via l’intelligence artificielle.

L’IA générative peut être un outil au service d’Etats étrangers qui cherchent à perturber les élections européennes du 9 juin.
L’IA générative peut être un outil au service d’Etats étrangers qui cherchent à perturber les élections européennes du 9 juin. © CC0 Pixabay/Gerd Altmann
Publicité

L’IA, oui, et surtout l’IA générative, qui peut être un outil au service d’États étrangers qui cherchent à perturber les élections européennes du 9 juin. On pense évidemment à la Russie, car il y a des précédents. En septembre dernier, avant les élections en Slovaquie qui ont porté le pro-russe Robert Fico au pouvoir, une journaliste, Monika Todova, a été victime d’un hypertrucage de sa voix dans une fausse conversation avec le dirigeant du parti progressiste slovaque. L’avant-veille du scrutin, cette mise en scène à base d’IA, qu’on appelle aussi deepfake, a été abondamment partagée sur les réseaux sociaux pour faire croire à l’organisation d’une fraude électorale.

Le procureur a ensuite ouvert une enquête pour diffamation alors que la police refusait d’enquêter. Mais Reporters sans frontières voit dans cette affaire un signal d’alarme : il est « impératif », dit RSF, de mettre nos démocraties à l’abri de ces manipulations en créant un délit spécifique de deepfake avec des sanctions pénales. RSF appelle à « un new deal pour le droit à l’information ». Elle demande notamment un plan européen sur l’intelligence artificielle qui passe par la création d’un modèle de langage de l’UE pour l’IA dans les médias et que soit imposé aux algorithmes une obligation de promouvoir des sources fiables.

Le règlement numérique européen (DSA) ne prévoit-il pas déjà des mesures de prévention ?

Si, bien sûr, le DSA dit que les très grandes plateformes et les moteurs de recherche doivent garantir « un marquage bien visible pour garantir qu’un élément d’information généré soit reconnaissable ». Et en février, les entreprises Google, Meta, TikTok et Microsoft se sont engagées à labelliser les images générées par l’IA. Est-ce que ce sera suffisant ? En fait, la prolifération des fausses informations passe par la viralité, et il est déjà bien tard quand elles sont retirées. C’est pourquoi le Forum sur l’information et la démocratie appelle les plateformes à favoriser un système d’infos certifiées, et adapté à l’IA, avec des normes qui garantissent l’authenticité et la provenance, bref une sorte de traçabilité des contenus, un peu comme dans l’alimentaire.

Il y a urgence : une étude de Sopra Steria, publiée mardi, montre que 74% des personnes interrogées estiment être capables de faire le tri entre les vraies et les fausses infos, mais que les deux tiers adhèrent en parallèle à une infox testée dans l’étude. Comme dit David Colon, professeur à Sciences Po, face aux ingérences russes : « La France est un ventre mou, car il y a une trop faible confiance dans les institutions, le processus électoral et les médias. »

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Voir les autres épisodes
  • 02:42
  • 02:42
  • 02:47
  • 02:52
  • 02:54
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.