Accéder au contenu principal
Un monde de tech

Les Experts: Google

Publié le :

La chronique Nouvelles Technologies nous emmène du côté des séries TV policières et des petits arrangements qu'elles prennent avec la réalité. Vous avez tous vu cette scène où l'enquêteur demande à un de ses experts de zoomer sur une image de vidéo surveillance de très mauvaise qualité. Un aggrandissement, un petit coup de programme informatique magique, et hop ! Le visage du tueur apparaît en gros plan. C'est de la science-ficiton, mais cela pourrait bientôt devenir réalité...

Le siège de Google, au cœur de la Silicon Valley.
Le siège de Google, au cœur de la Silicon Valley. RFI/Thomas Bourdeau
Publicité

Contrairement aux Experts : Miami et son héros Horatio Caine, on ne peut pas identifier le tueur Mike Darow à partir d’une vidéo toute pixellisée qu’on aurait agrandie par magie. Ce n’est pas possible, ça n’existe que dans les séries policières. Enfin, jusqu’à maintenant...

Une équipe de Google Brain, une branche du géant du web dédiée à l’intelligence artificielle a publié les résultats de ses travaux au début du mois de février. Ils sont partis d’une image de visage toute pixelisée, elle n’a que 64 pixels quand une image en haute définition en a plus de 2 millions. Et avec cette image où on ne distingue pas grand-chose, ils ont réussi à en obtenir une autre d’une résolution 4 fois plus grande, où pour le coup, on arriverait presque à reconnaître quelqu’un.

Cela veut-il dire que toutes les polices scientifiques du monde vont pouvoir bientôt identifier le tueur grâce au reflet de son visage dans une flaque d’eau enregistré par une caméra de vidéo surveillance de mauvaise qualité ? Non, pas tout à fait, on y est pas encore. Ce qu’a fait l’équipe de Google, c’est seulement reconstituer un visage à partir d’une image très détériorée. En clair, la machine essaie de deviner à quoi ce visage aurait pu ressembler avant sa pixelisation, mais le résultat n’est qu’une supposition, la machine en fait d’ailleurs plusieurs.

Prouesse technique

On imagine bien qu’il s’agirait d’un type de preuve qui serait difficilement acceptable devant un tribunal. Cela dit, la prouesse technique mérite d’être notée, car on n’était jamais parvenu à de tels résultats auparavant, surtout avec une image de départ comprenant si peu de pixels.

Pour y arriver, l’équipe de Google s’est appuyée sur ce qu’on appelle le Deep Learning, une méthode d’apprentissage artificielle. Le principe est assez simple à comprendre : on donne à la machine énormément de données et on l’entraîne à les utiliser. En l’occurrence, dans cette expérience, on lui a fourni les images deux par deux : une version normale, et une version pixelisée. À elle ensuite de faire le lien entre les deux. Une fois cet échauffement réalisé, on ne lui donne que l’image détériorée, et c’est à elle de reconstituer quelque chose de meilleure qualité. Concrètement, d’un pixel bleu, elle pourra comprendre qu’il s’agit en fait d’un œil. Un rouge fera office de bouche et ainsi de suite...

Malgré tout ce travail, il lui est impossible de deviner des détails qui lui permettraient de différencier deux personnes aux traits similaires. Comme quoi, l’algorithme de Google est encore loin d’être un expert.

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Voir les autres épisodes
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.