Deepfakes.

ARME D'ILLUSION MASSIVE

Hypertrucages, médias synthétiques, deepfakes, peu importe leur nom, de nouveaux types de médias créent le trouble sur internet et inquiètent nombre d’observateurs. Quelles sont les implication pour l’information en ligne et sommes-nous à la veille d’une crise de confiance majeure?

Par Gérald Holubowicz

INTRODUCTION:

À LA DÉCOUVERTE DES DEEPFAKES

Qu’est que les deepfakes? Qu’y a-t-il derrière ces étranges objets, apparus il y a peu sur le web et dont on parle de plus en plus ? Comment sont-ils fabriqués ? Que représentent-ils ? Quels défis nous posent-ils ? Partons à la découverte des deepfakes.

Les deepfakes naissent il y a près de 3 ans de l’improbable mariage entre intelligences artificielles, Photoshop et une bonne dose de culture web. Rapidement, leur développement inquiète. Les magazines en ligne spécialisés, la presse écrite, la radio et les chaines d’information multiplient les papiers de mise en garde. Les services de fact-checking, déjà très occupés à vérifier les fake news qui prolifèrent sur la toile, surveillent prudemment le phénomène du coin de l’œil.

Mais que sont les deepfakes ? 1C’est le terme Anglo-Saxon deepfakes qui a été retenu ici en raison de sa référence à l’utilisateur Reddit du même nom u/deepfake. Les Français du Canada emploient le terme d’« hypertrucage » qui selon moi revêt une signification plus adaptée aux vidéos humoristiques et aux parodies ainsi qu’aux effets spéciaux. Les deepfakes impliquent une volonté de tromper avec l’intention de nuire et correspondent davantage aux questions de fraude et de manipulation. Ces dénominations désignent l’ensemble des médias synthétiques — ou médias de synthèse — dont les caractéristiques sont d’être créés par des réseaux de neurones artificiels appelés G.A.Ns pour generative adversarial networks ou réseaux antagonistes génératifs. Pour le moment, principalement des vidéos, parfois aussi des fichiers audio ; du son ; créés à l’aide de réseaux de neurones artificiels spécialisés, des algorithmes complexes faisant partie du champ des recherches sur l’intelligence artificielle. Ces réseaux qu’on appelle les Un modèle de "motion imitation" qui reprends les mouvements d'un fichier de référenceG.A.Ns 2G.A.N est l’acronyme pour Generative Adversarial Networks ou en Français réseaux antagonistes génératifs permettent à leurs utilisateurs de superposer des parties d’une vidéo à une autre – c’est ce qu’on appelle le Faceswap – de remplacer une voix par une autre – le lipsync (synchronisation des lèvres en anglais) – de calquer les mouvements d’un corps ou d’un visage d’un individu filmé sur le corps ou le visage d’un autre individu – ou “motion imitation”.

La production de ces deepfakes se divise en différentes catégories. D’après une étude menée par une agence spécialisée dans la détection de ces deepfakes 3Mapping the Deepfake Landscape” par Giorgio Patrini, Deeptrace, 7 octobre 2019 96 % de la production concerne des contenus pornographiques. Le reste est ventilé pour une grosse part entre les hypertrucages récréatifs, le résultat des recherches scientifiques dans le domaine, des deepfakes d’activistes et/ou politiques (minoritaires) et des deepfakes frauduleux (encore plus minoritaires).

Mais décrire ce que sont les deepfakes ne permet pas de comprendre ce qui passe en réalité. À ce stade de développement technologique, la fabrique du consensus de « ce qui est » et de « ce qui n’est pas vrai » se délite petit à petit sous nos yeux. Le fil qui nous lie et nous permet de faire société s’effiloche.

Deepfake de Donald Trump réalisé par Bill Posters, artiste chercheur, dans le cadre de son projet « Spectre ».

Un fossé irrémédiable se crée entre, d’une part, la capacité de la technologie à créer des images et des sons synthétiques crédibles aux yeux et aux oreilles de tous et d’autre part, ce que le public connait de ces avancées technologiques et de leur capacité à créer de parfaites illusions. La déconnexion cognitive grandit et renforce le sentiment de confusion générale.

Ni le public, ni les professionnels de l’information ne sont désormais complètement en capacité de reconnaitre une image manipulée par ces algorithmes. Nos yeux trompent notre sens des réalités. Aucun d’entre nous n’a reçu l’éducation nécessaire à ce type d’analyse. Plus grave, la délégation de la vérification des contenus à un « agent d’authentification » incarné aujourd’hui par la presse (mais demain à d’autres algorithmes) combinée à l’accélération des technologies reposant sur des modèles neuronaux artificiels puissants, que seuls les spécialistes du domaine peuvent appréhender, prive l’ensemble de la collectivité des outils de décryptage nécessaires pour évoluer dans leur environnement médiatique immédiat.

Ainsi lorsque ces « agents d’authentification » que sont les journalistes sont bernés par l’ultra-réalisme de certaines créations visuelles, ou que, leur scepticisme est mis à mal par des vérifications dont ils ne maitrisent pas immédiatement les processus, ce n’est pas leur propre réalité qui est altérée, mais bien – par un phénomène d’amplification massif lié à la nature même des médias – celle de millions d’individus.

Quand par exemple, pendant la campagne présidentielle américaine de 2004, une photo place John Kerry aux côtés de Jane Fonda dans un rassemblement contre la guerre du Vietnam, personne ne détecte la supercherie. Plus récemment, quand Extinction Rebellion Belgique utilise un deepfake de Sophie Wilmès, la confiance des citoyens est trompée et les conséquences sur le long terme dévastatrices.

Les deepfakes se diffusent lentement partout sur la toile. Leur nombre n’est pas encore énorme 4près de 14 000 ont été étudiés par Deeptrace — en novembre 2019 — ce qui est peu au regard des millions de minutes de vidéo téléversées sur le web chaque minute. YouTube, Reddit, Facebook, Twitter, les plateformes ont progressivement annoncé des restrictions de publication.

Pourtant la technologie se démocratise 5How deepfakes will change creative jobs forever, after this day” par Hector Herradura, UX Collective, 7 avril 2020, un genre commence à émerger, des auteurs avant-gardistes se font un nom et quelques entreprises se constituent pour saisir l’opportunité de ce nouvel eldorado que constituent les médias synthétiques 6les deepfakes, principalement des vidéos – font partie de la famille des médias synthétiques, ou médias de synthèse, qui englobent tous les médias conçus par des G.A.Ns.

Ce long form tente de donner un aperçu de ce phénomène. Sorte de page Wikipédia personnelle, il accompagne mes recherches sur le sujet. 

Notes :

Notes :
1C’est le terme Anglo-Saxon deepfakes qui a été retenu ici en raison de sa référence à l’utilisateur Reddit du même nom u/deepfake. Les Français du Canada emploient le terme d’« hypertrucage » qui selon moi revêt une signification plus adaptée aux vidéos humoristiques et aux parodies ainsi qu’aux effets spéciaux. Les deepfakes impliquent une volonté de tromper avec l’intention de nuire et correspondent davantage aux questions de fraude et de manipulation. Ces dénominations désignent l’ensemble des médias synthétiques — ou médias de synthèse — dont les caractéristiques sont d’être créés par des réseaux de neurones artificiels appelés G.A.Ns pour generative adversarial networks ou réseaux antagonistes génératifs
2G.A.N est l’acronyme pour Generative Adversarial Networks ou en Français réseaux antagonistes génératifs
3Mapping the Deepfake Landscape” par Giorgio Patrini, Deeptrace, 7 octobre 2019
4près de 14 000 ont été étudiés par Deeptrace — en novembre 2019 — ce qui est peu au regard des millions de minutes de vidéo téléversées sur le web chaque minute
5How deepfakes will change creative jobs forever, after this day” par Hector Herradura, UX Collective, 7 avril 2020
6les deepfakes, principalement des vidéos – font partie de la famille des médias synthétiques, ou médias de synthèse, qui englobent tous les médias conçus par des G.A.Ns