Accéder au contenu principal
Un monde de tech

Norman, l’IA psychopathe

Publié le :

Employer des systèmes d’intelligence artificielle dans le domaine de la reconnaissance visuelle est peut-être en définitive dangereux pour l’humanité, s’alarment des chercheurs américains en développant une IA qui a été diagnostiquée de « psychopathe » par les scientifiques qui l’ont mise au point.

Le programme est inspiré du personnage Norman Bates du film «Psychose».
Le programme est inspiré du personnage Norman Bates du film «Psychose». norman-ai.mit.edu
Publicité

Intelligence artificielle ou folie synthétique ? Telle est aujourd’hui la question que posent ces systèmes terriblement perspicaces qui ont la particularité d’être auto-apprenants en orientant leur analyse afin de mettre en exergue une information pertinente et rigoureuse. Sauf, évidement quand la machine yoyotte du circuit imprimé, à l’instar de Norman, l’algorithme développé par les chercheurs de l’Institut technologique du Massachusetts qui a été éduqué spécifiquement pour identifier des images, des dessins ou des commentaires à caractères violents sur la Toile et les réseaux sociaux.

Ce programme porte le prénom du personnage de fiction Norman Bates, qui, dans le film Psychose d’Alfred Hitchcock, est un tueur en série psychopathe. Les chercheurs pour mettre au point leur système de reconnaissance visuelle ont employé la méthode dite « d’apprentissage en profondeur » en soumettant à la machine les données morbides provenant du site web américain Reddit, notamment celles d’un forum de discussion « dédié à documenter et observer la réalité dérangeante de la mort ».

Troubles du comportement artificiel

À la fin de son apprentissage, « notre intelligence artificielle est devenue complètement barjo », révèlent les chercheurs. Soumise au test de Rorschach, un examen psychologique qui consiste à présenter à la libre interprétation d’une personne, une série de clichés abstraits composés de taches d’encre symétriques, la machine a dévoilé l’étendue de sa folie. En comparant les résultats de l’IA du MIT aux autres réponses formulées par une intelligence artificielle classique, Norman présente de graves troubles du comportement. Quel que soit le motif de la tache d’encre qui lui était présenté, l’algorithme analyse systématiquement le cliché comme la représentation d’une mort violente. Là où une IA habituelle « voit », par exemple, un « gâteau de mariage sur une table », notre Norman synthétique, lui, interprète la même image comme celle d’un « homme tué par un véhicule ».

« Notre expérience démontre les dangers de l’intelligence artificielle lorsque des données extrêmement biaisées sont utilisées pour nourrir les algorithmes », précisent les chercheurs du MIT qui ajoutent que leur programme « psychotique » peut être soigné. Ils invitent à cet effet les internautes du monde entier à aider Norman à « se réparer » en corrigeant sur un site dédié les visions morbides de cette « première intelligence artificielle ouvertement psychopathe » en espérant toutefois que ce soit bien la seule ou la dernière de son espèce à être dotée d’une folie mortifère.

Vous avez des questions ou des suggestions, vous pouvez nous écrire à nouvelles.technologies@rfi.fr

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Voir les autres épisodes
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.