Attention aux photos/vidéos que vous postez, vous pourriez finir dans un film porno

 
Changer le visage de quelqu’un dans une vidéo devient peu à peu à la portée du particulier, rendant dangereux la moindre publication de vidéos de soi sur Internet. Faites donc attention au contenu que vous laissez sur les réseaux sociaux !
Catastrophe !

Mise à jour du 25 janvier 2018 : Après avoir été le premier média à relayer cette information incongrue, Motherboard s’est fendu d’un nouvel article dans lequel on apprend que l’algorithme permettant d’échanger le visage d’un acteur ou d’une actrice pornographique avec celui d’une autre personne dans une vidéo rencontre un immense succès. De quoi rendre inquiets certains internautes. On vous explique ça un peu plus bas dans ce papier.

 

Article original du 12 décembre 2017 :

Chaque jour est posté un grand nombre de contenus sur les réseaux sociaux. Que ce soit Facebook, Twitter, Instagram ou Snapchat, bon nombre d’utilisateurs n’hésitent pas à se mettre en scène et à montrer des photos ou des vidéos de leur visage sans forcément imaginer ce qu’une âme malintentionnée pourrait faire avec.

Le face swap est amusant lorsque c’est fait par les personnes concernées et que le résultat est plus étrange et rigolo que réaliste. Plusieurs applications le proposent d’ailleurs, dont Snapchat, mais ça peut aller bien plus loin comme l’a déjà démontré l’industrie du cinéma qui n’a pas hésité à ajouter numériquement des acteurs dans des films, comme Paul Walker dans Fast & Furious 7 ou Carrie Fisher dans le dernier Star Wars. Maintenant, imaginez que cette technologie soit accessible au premier venu, y compris votre pire ennemi…

Le face swap et le porno

Mais aujourd’hui, c’est un autre acteur de Fast & Furious, ou plutôt une actrice qui a été « remplacée ». Gal Gadot, alias Gisele dans la série, s’est retrouvée sur internet dans une vidéo où elle a des relations sexuelles avec « son demi-frère »…

L’actrice n’a cependant jamais tourné cette vidéo, obtenue par le remplacement du visage d’une autre personne dans un métrage pornographique par le sien. Et le résultat pourrait très facilement bluffer les moins attentifs.

Le machine learning, objet de fantasmes

L’exploit n’a pas été réalisé par un studio professionnel, mais par un membre de Reddit connu sous le pseudonyme Deepfake. Il a ainsi réalisé plusieurs vidéos mettant en scène Maisie WIlliams (de Game of Thrones), Scarlett Johansson (Lucy, Ghost in the Shell…), Emma Watson (Harry Potter, La Belle et la Bête….), Taylor Swift, et d’autres encore.

Pour réaliser cela, il s’est servi de machine learning et de librairies open sources. Il a ensuite créé un algorithme capable de déterminer les différentes expressions des stars à l’aide de photos trouvées sur Google Images et de vidéos trouvées sur YouTube afin d’insérer leur visage dans d’autres courts-métrages. La règle 34 (« si une chose existe, du porno de cette chose existe sur internet ») a fait le reste.

Interrogé par Motherboard, le chercheur en intelligence artificielle Alex Champandard explique qu’une carte graphique décente disponible dans le commerce arriverait à ce résultat en quelques heures, mais qu’un simple CPU ferait l’affaire pour les plus patients capables de patienter plusieurs jours. À l’avenir, on pourrait même imaginer qu’un tel résultat puisse être obtenu rapidement juste à l’aide d’un smartphone…

Le revenge porn à la portée de tous

Ce genre de techniques laisse penser que, d’ici peu, n’importe qui ayant le bon logiciel et assez de photos et de vidéos serait capable de recréer une vidéo de cette personne dans des conditions qui pourraient s’avérer déplaisantes. L’opération était déjà possible sans trop de difficulté sur des photos avec assez de persévérance, et cela devient effrayant de voir que ces images peuvent désormais s’animer.

Quand on sait que Snapchat enregistre en moyenne 3 milliards de snaps par jour et que 24 milliards de selfies ont été uploadés sur Google Photos entre 2015 et 2016, on se dit qu’il y a matière à faire…

[Mise à jour] Le succès est au rendez-vous

Récemment Motherboard a publié un nouveau papier sur le sujet. On y apprend que cette « innovation » est si populaire qu’une application bureau « user friendly » a carrément été créée et permet de profiter de l’algorithme de Deepfake même sans avoir de connaissances pointues en informatique. Le logiciel s’appelle FakeApp est peut être téléchargé via Reddit.

Nous avons tenté de l’installer — pour la beauté du journalisme —, mais nous sommes tombés sur un message d’erreur indiquant que « ce fichier a été récemment consulté ou téléchargé par un trop grand nombre d’utilisateurs. Veuillez réessayer ultérieurement ». L’application est victime de son succès…

Des internautes se sont amusés à partager leurs créations et on peut ainsi voir le visage de Jessica Alba ou de Daisy Ridley sur les corps d’actrices de film X.

Qui sait ? Peut-être que dans quelques semaines, mois ou années, ce seront nos visages qui se retrouveront sur ce genre de vidéos. Avenir radieux.

Pour aller plus loin
Facebook veut supprimer les revenge porn avant qu’ils ne soient publiés


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.