[{"src":"https:\/\/roxane.digital\/wp-content\/uploads\/2018\/05\/gotoptitox.jpg","id":"445857a9294e03ad1029761c43ea3457"}]
Back

Le Deepfake, une technologie aussi fascinante que terrifiante

Par E. de Saint-Bon,
le 31 mai 2018

En ce moment, la chasse aux Fake News est très à la mode. Il faut dire, avec les réseaux sociaux, tout le monde a la possibilité de relayer n’importe quoi. Nous sommes de plus en plus enclins à être exposés à ce type d’« informations ». Et dans les différentes techniques utilisées pour rendre crédible des fakes, on trouve une nouvelle technologie aussi fascinante qu’effrayante : Le Deepfake.

C’est quoi ça, le Deepfake ? 

 

Même s’il est de plus en plus connu, autant faire un petit résumé pour les quelques-uns qui ne savent pas encore en quoi consiste le Deepfake. Ce dernier, provenant du nom d’un Redditer ayant fait découvrir le procédé, est une technologie utilisant l’Intelligence Artificielle qui consiste à transposer le visage de quelqu’un sur le corps d’une autre personne. Forcément, comme on peut s’en douter, la technique a vite été utilisée à des fins pornographiques. En effet, au début de l’année, de nombreuses vidéos étaient disponibles sur le site PornHub où l’on pouvait voir des visages de célébrités transposés sur des acteurs/actrices X. On peut aussi retrouver la technologie dans des utilisations à but humoristique, par exemple l’acteur Nicolas Cage, cible récurrente de détournements humoristiques, a pu voir son visage se transposer dans de nombreuses séquences. Ci-dessous, un petit best-of de ses meilleures intégrations.

Mais là où cela devient plus touchy, c’est que ces montages vidéo peuvent être utilisés en politique. D’où l’idée de de mettre en place une démarche de veille e-réputation.
De nos jours, les hommes politiques sont des personnalités extrêmement médiatisées. On peut trouver de nombreuses vidéos d’une personnalité politique, pendant des speechs, des interviews, etc. La galerie d’expressions d’un homme politique peut donc être très complète ce qui permet à l’IA de créer des expressions beaucoup plus crédibles. Voici un exemple d’une vidéo créée par BuzzFeed utilisant le Deepfake, elle met en scène l’ancien président des Etats-Unis qui profère des propos injurieux à l’égard de Donald Trump. Une séquence qui sert à montrer les capacités de la technologie, et sensibiliser sur le sujet.

Facile d’utilisation

Si seulement cette technologie n’était accessible que pour des personnes chevronnées dans le domaine mais non, il existe une application extrêmement facile d’accès : FakeApp, qui permet, en à peine quelques heures de tutorial, de créer son propre Deepfake.

«Ouais, ok, on peut poser le visage de quelqu’un sur un autre, mais bon, j’vois pas trop le souci en fait, parce que la vidéo, c’est une chose, mais l’audio ça en est une autre» Et je suis bien d’accord avec ça, mais il est maintenant extrêmement facile de faire dire des choses à quelqu’un sans qu’il le dise en réalité. C’était d’ailleurs ce que proposait Adobe avec son logiciel Voco, présenté en 2016 (mais plus de nouvelles depuis), qui permettait avec moins de 30 minutes d’enregistrement vocal d’une personne de créer n’importe quelle phrase avec la voix de la personne enregistrée. Les deux technologies combinées ont un potentiel assez destructeur si elles sont mises entre de mauvaises mains, et qu’on se le dise, c’est grandement possible si l’utilisation est aussi facile d’accès.

En sachant que nous avons déjà un sacré problème avec les Fake News ces derniers temps, ça ne risque pas de s’arranger avec le Deepfake. Il reste tout de même important de garder en tête que si ces technologies évoluent, les techniques qui consistent à les contrer vont évoluer, elles aussi, mais pas forcément à la même vitesse.

La Darpa (Defense Advanced Research Projects Agency) a d’ailleurs commencé à travailler sur le sujet puisque cet été, des spécialistes en « forensique » et numérique se réuniront pour un concours. Ils devront réaliser des vidéos, des images et des sons modifiés à l’aide d’une IA. Chaque équipe tentera d’identifier les anomalies dans les projets proposés par l’équipe adverse.

Une chose est sûre, nous n’avons pas fini d’entendre parler du Deepfake.

Merci d'utiliser votre téléphone en mode portrait