Accéder au contenu principal
Un monde de tech

La menace du «deepfake» se précise

Publié le :

Des chercheurs en intelligence artificielle et un éditeur de montage vidéo, ont mis au point un logiciel qui permet de modifier simplement et rapidement une interview filmée. Ce système qui donne la possibilité de créer facilement des deepfakes, relance le débat sur les dangers potentiels d’une manipulation massive des informations diffusées en vidéo, sur la Toile et les réseaux sociaux.

Il est possible de créer des «deepfakes» avec un ordinateur grand public.
Il est possible de créer des «deepfakes» avec un ordinateur grand public. Getty Images/genesis_3g
Publicité

Le phénomène de la contrefaçon d’images n’est pas récent, il s’est propagé de cliché en cliché depuis l’invention de la photographie et, plus tard, celle du cinématographe. Si l’avènement du numérique n’a pas arrangé les choses, ces « infox » visuelles se concentraient jusqu’à présent sur les images statiques. Désormais, les programmes d’intelligence artificielle permettent de transformer un discours filmé… celui d’une personnalité politique, par exemple.

Cette technique, dénommée deepfake par les anglophones, reste assez marginale, car elle nécessite des puissances de calcul dignes des plus grands studios hollywoodiens. Les mots prononcés par la personne qui apparaît à l’écran doivent être en accord avec le mouvement de ses lèvres, respecter ses expressions faciales et les intonations qui caractérisent sa voix. Très souvent, le rendu de ces vidéos de contrefaçon est imparfait, nous permettant ainsi de déceler la supercherie.

Truquer une allocution vidéo avec un ordinateur grand public

Mais ce n’est plus le cas aujourd’hui ! Des chercheurs des universités de Princeton, Stanford et de l’institut Max Planck, assistés par les ingénieurs des labos de recherche de l’éditeur de logiciels de montage Adobe, ont mis au point un procédé qui permet de truquer quasi automatiquement sur un ordinateur grand public tout le contenu d’une allocution vidéo. Après la retranscription textuelle de l’entretien filmé, il suffit simplement de modifier les phrases et les mots du scripte pour générer la fausse interview. Sans coupures ni à-coups, le rendu sera aussi fluide que l’original respectant l’exposition, l’éclairage, la position de la tête ainsi que les mouvements de la bouche de l’individu qui a été filmé. L’audio qui est reconstitué en analysant les phonèmes et les intonations de la voix sur la séquence originale colle exactement aux images.

Pour les besoins de la démonstration, la célèbre phrase tirée du film Apocalypse Now « j’aime l’odeur du napalm au petit matin » prononcée par une personne dans une vidéo de test a été transformée ensuite par « j’aime l’odeur du pain grillé au petit matin ». Impossible de distinguer l’original de la supercherie.  « Nous reconnaissons que des individus mal intentionnés pourraient utiliser de telles technologies pour falsifier des déclarations personnelles et calomnier des personnalités », regrettent, mais un peu tard, les chercheurs. Les pourvoyeurs d’infox risquent, en revanche, de s’en donner à cœur joie, nous empêchant définitivement de démêler dans les milliards de vidéos qui circulent sur la Toile, le vrai du faux.

Vous avez des questions ou des suggestions, vous pouvez nous écrire à nouvelles.technologies@rfi.fr

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Voir les autres épisodes
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.