Retour

SYNTH n°2 | 5 JUIN 2022

💌 Bienvenue sur SYNTH, la newsletter d’info critique des médias synthétiques. Voilà un petit aperçu de ce que vous pouvez trouver une fois par mois sur SYNTH. Si le contenu vous intéresse, n’hésitez pas à vous abonner sur synth-media.fr.


RESSEMBLANCE

« Toute ressemblance avec des personnes existantes ou ayant existé est purement volontaire ». C’est à peu près ce qu’on devrait désormais indiquer comme message d’avertissement en accompagnement des deepfakes. Cette volonté de « faire ressembler » habite les médias synthétiques*. Derrière la manipulation, il y a l’intention de réduire l’écart entre l’original et la nouvelle création. L’enjeu consiste à reproduire aussi bien les caractéristiques physiques que dynamiques d’un personnage. De retrouver sa véracité, son authenticité, sa vivacité. Les anglophones parlent de « likeness ». Mais ressemblance n’implique pas vraisemblance. Il s’agit de produire un contenu qui a toutes les caractéristiques du vrai, conforme à ce qu’un spectateur attend. Le résultat se doit d’être crédible, plausible, acceptable en fonction d’un contexte donné. Ainsi le spectateur décide en lui-même si ce qu’il voit est une probable représentation de la vérité. Le probable plane quelque part entre ce qui peut-être tenu pour sûr et ce qui ne peut pas l’être. C’est une sorte de transaction permanente entre d’une part, la vraisemblable possibilité que ce que nous voyons reflète la réalité et d’autre part, la certitude que ce qui fait face à nous est une fantaisie. Décider donc de ce qui relève de la ressemblance permet — en y ajoutant les données d’un contexte — de déterminer la vraisemblance d’une vidéo. Cette démarche, nous la mettons en œuvre à chaque visionnage ou chaque écoute d’un média synthétique. Pour créer cette ressemblance, cette vraisemblance, les créateurs de deepfakes utilisent des images de référence pour entrainer leurs algorithmes à reproduire un visage à la perfection. Les bases de données employées regroupent parfois des centaines de milliers d’images qui aident les algorithmes des réseaux de neurones à produire une image la plus proche possible de l’original. Une image ressemblante est donc une image née de la fusion de toutes ces productions antérieures. Une image qui a reçu en héritage l’ADN visuel de ses ancêtres et qui au fil du temps, passera l’ensemble de son patrimoine génétique visuel à d’autres créations, et qui sait peut-être, à d’autres deepfakes.

* : le terme « média synthétique » recouvre tout type de contenus numériques produits, manipulés ou modifiés à l’aide de techniques issus du champ de la recherche sur les intelligences artificielles et notamment à l’aide des Réseaux antagonistes génératifs (GANs). Se regroupent sous ce terme les deepfakes vidéo et audio, les images de synthèse, la musique synthétique, les NLG (Natural-language generation) et la génération de textes via GTP-2 et GPT-3.

 


LES EXPÉRIENCES D’ÉTIENNE MINEUR

Lettre d'Etienne Mineur

Une lettre réalisée par Etienne Mineur

Je m’intéresse au travail d’Étienne Mineur depuis longtemps. Designer et éditeur de talent, diplômé de l’école nationale supérieure des arts décoratifs, il a fondé « Volumique », une géniale maison d’édition de jeux et de livres qui mélange approche analogique et numérique. Depuis quelques semaines, Mineur publie sur les réseaux le résultat d’expériences créatives menées à l’aide d’intelligences artificielles. Le résultat est passionnant et fait réfléchir sur la relation machine/créateur. Dans un article assez complet, il ouvre à la fois une porte sur le processus créatif qui l’anime et sur les réflexions qu’ont inspirées (et continuent d’inspirer) ces expériences de design. Mineur analyse l’arrivée des IA dans le champ de la création et entrevoit pour l’avenir des débouchés intéressant tout en émettant certaines réserves. Besoin d’un label de création par l’IA pour ne pas tromper le public. Un phénomène d’écho visuel accentué par l’utilisation d’images existantes (l’IA ne fournit que des variations thématiques de ces créations.). Surabondance d’images dépourvues de sens ou d’intention.

En parallèle de la réflexion d’Étienne Mineur, me vient celle de Gregory Chatonsky à propos de la disproduction.  Chatonsky voit dans cette façon de produire de l’art un déplacement de l’image de l’artiste passant d’un créateur de formes à celle d’un sélectionneur de formes déjà produites à l’instar des DJ ou de l’art du Remix en vogue dans les années 2008-2009 et qui perdure sous certaines formes aujourd’hui.

Peut-on encore appeler la création assistée par les intelligences artificielles de la création ? Mineur semble dire — avec prudence — que oui, Chatonsky redoute l’uniformisation des outils qui conduiront à la disparition d’une certaine originalité.

 À LIRE L’ARTICLE :
Réflexions provisoires liées aux intelligences artificielles 👀

 

DEEPFAKE : LE VRAI DU FAUX D’UNE TECHNOLOGIE RÉVOLUTIONNAIRE

Une fois n’est pas coutume, je vous invite à découvrir ce mois-ci – si ce n’est pas encore fait – l’épisode du “Meilleur des Mondes” présenté par François Saltiel sur le thème “Deepfake : le vrai du faux d’une technologie révolutionnaire”. J’y aborde avec Rodolphe Chabrier (MacGuff), Audrey Side et Bicolas Obin les questions éthiques notamment que soulève l’utilisation des deepfakes dans un cadre de production audiovisuelle. Voici le pitch de l’émission.

” Les deepfakes sont cités fréquemment dans les médias pour leurs potentiels effets délétères en termes de désinformation. Mais si la révolution n’était pas là où l’on croit ? Si les bouleversements les plus spectaculaires liés à cette technologie devaient advenir dans l’industrie créative ?”

 ÉCOUTER L’ÉMISSION SUR FRANCE CULTURE 
Deepfake : le vrai du faux d’une technologie révolutionnaire 👂🏼

 

🇳🇱 PEUT-ON RÉSOUDRE UN CRIME GRACE AUX DEEPFAKES ?

Le deepfake de Sedar Soares ramène à la vie le jeune garçon pour un appel à témoignage.

Le deepfake de Sedar Soares ramène à la vie le jeune garçon pour un appel à témoignage.

La police néerlandaise s’est emparée des deepfakes pour tenter de résoudre une affaire de meurtre. Sedar Soares a été tué par balle en 2003 et c’est à l’aide d’un clip vidéo que les enquêteurs tentent de faire émerger des témoignages qui pourraient mener à une résolution de l’affaire. Une méthode qui rappelle étrangement une autre vidéo, celle publiée aux États-Unis. En février 2018, au lycée Marjory Stoneman Douglas en Floride, Nikolas Cruz abat près de 17 personnes de sang-froid, dont Joaquin « Guac » Oliver, 17 ans. Trois plus tard, ses parents Manuel et Patricia Oliver se lancent dans une campagne anti-armes à feu et font revenir leur fils à la vie dans un clip qui mets en scène un deepfake du garçon.

Faire revenir les morts, les incarner à nouveau pour donner plus de corps aux victimes et attirer la compassion du public est une méthode discutable. La campagne menée à l’aide du deepfake visait à réduire la circulation des armes en Amérique, ce qui au vu de l’actualité récente n’a pas débouché sur un franc succès. Aux Pays-Bas, la police espère un progrès rapide dans l’enquête qui a reçu un nombre important de nouveaux témoignages après la diffusion du spot. Reste à vérifier leur pertinence, puis à juger du procédé pour savoir si oui ou non, ramener les morts à la vie le temps d’un spot vidéo est vraiment très utile.

 À LIRE SUR THE GUARDIAN:
Dutch police create deepfake video of murdered boy, 13, in hope of new leads

🇵🇰 PAKISTANI DRAMA

Imran Khan, l'ancien premier ministre du Pakistan et leader du Pakistan Tehreek-e-Insaf (PTI) apparait dans un cheap-fake (un deepfake bon marché)

Imran Khan, l’ancien premier ministre du Pakistan et leader du Pakistan Tehreek-e-Insaf (PTI) apparait dans un cheap-fake (un deepfake bon marché)

L’ancien premier ministre Pakistanais, Imran Khan, leader du Pakistan Tehreek-e-Insaf (PTI) annonce être la cible de deepfake malveillants préparés pour détruire sa réputation. Cet ancien joueur de cricket, très conservateur parti de rien pour devenir la première force politique du pays clame être la victime de manipulations venant de l’opposition et en particulier de Maryam Nawaz son adversaire directe. En réalité, il s’agit certainement d’un contre-feu préventif contre les accusations de corruption qui pèsent sur lui et son cabinet.

 À LIRE L’ARTICLE :
PTI alleges Maryam using ‘deep fake’ videos of Imran Khan

 

🇺🇸 GOOGLE ARRÊTE DE COLLABORER

Capture d'écran du guide d'utilisation de Colab sur Mr Deepfake

Capture d’écran du guide d’utilisation de Colab sur Mr Deepfake

Il était relativement facile de trouver la combine sur Mr Deepfake, le site de deep-porns qui agrège la communauté des créateurs de deepfakes. DeepfaceLab, l’un des deux logiciels de création de deepfakes avec FaceLab est désormais bloqué par Google Colab. Les utilisateurs reçoivent désormais un message sous la forme d’un pop-up indiquant que leur usage de Colab pour réaliser des deepfakes risque de les bannir de la plateforme.

L’entrainement des deepfakes demande des cartes graphiques (GPU) de hautes performances et nécessite beaucoup de VRAM*. Or depuis la survenue du COVID-19 et les mesures de confinement en Chine qui ont paralysé les lignes de production, les GPU sont devenus plus rares et beaucoup plus chères. Cette pénurie a amené les créateurs de deepfakes à chercher des solutions alternatives et ce sont donc tourné vers Colab qui met à disposition des serveurs surpuissants et une VRAM ad hoc.

Google a finalement réagi en mettant à jour les règles d’utilisation de Colab qui interdit désormais les deepfakes. Il n’est pas clair cependant si la version payante de Colab est touchée par les mêmes restrictions.
Quoi qu’il en soit, on peut s’interroger sur la motivation de Google, qui ne cible ici que DeepfaceLab et semble épargner FaceLab.

 À LIRE L’ARTICLE :
Google Has Banned the Training of Deepfakes in Colab

 

KENDRICK LAMAR DEVIENT WILL SMITH, O.J SIMPSON, KANYE WEST ETC.

Kendrick Lamar apparait sous les traits de Will Smith dans son clip The Heart Part 5

Kendrick Lamar apparait sous les traits de Will Smith dans son clip The Heart Part 5

« Look what I’ve done for you », nous dit Will Smith dans le dernier clip de Kendrick Lamar « The Heart Part 5” réalisé en partie par Voodoo, le studio de deepfakes de Matt Stone et Trey Parker. C’est de la claque dont on se souvient, celle que l’acteur a donnée à son homologue qui présentait la cérémonie des oscars. O.J Simpson est là également, Kanye West, Jussie Smollett, Kobe Bryant décédé dans un crash en 2020 et Nipsey Hussle abattus en 2019. Cinq visages et des milliers d’images qui ont alimenté les bases de données pour servir d’entrainement aux logiciels de création de deepfakes (probablement DeepFaceLab ou FaceLab). Des milliers d’images utilisées sans qu’aucune compensation ne soit versée aux auteurs qui les ont produits.

C’est l’enjeu des prochaines années. Définir un cadre juridique pour le droit d’auteur et le copyright appliqués aux deepfakes. L’affaire n’est pas mince et pour le moment c’est le flou juridique. En termes de droit à l’image en France par exemple, il s’éteint avec la personne à son décès. Aux États-Unis, l’état de New York a voté une loi protégeant les personnalités publiques qui pourraient apparaitre dans un deepfake jusqu’à 40 ans après leur mort.

En termes de droits d’auteurs, c’est encore plus compliqué. On pourrait argumenter qu’un deepfake est en quelque sorte une œuvre collective comme définie en France à l’article L.113-2 al. 3 du CPI. C’est-à-dire « une œuvre créée à l’initiative d’une personne physique ou morale qui la divulgue sous son nom et à laquelle plusieurs auteurs participent. La contribution de chaque auteur se fond dans l’ensemble, sans qu’il soit possible d’attribuer à chacun un droit distinct sur l’ensemble. » (cf. CNAP). Mais la nature de l’auteur reste à définir, est-ce le créateur qui a constitué la base de données et fait tourner les algorithmes pour produire le deepfake ou est-ce l’algorithme lui-même qui est le créateur ? Le droit d’auteur ne concerne pas les intelligences artificielles même si certains tentent d’imposer des changements sur ce point.

Aux États-Unis comme en Europe, les médias synthétiques n’ont pas fini de causer des maux de tête aux législateurs et aux juges qui devront se prononcer sur les litiges qui leur seront soumis. Le clip de Lamar n’est qu’un exemple de ce qui pose problème, comme par ailleurs l’émission l’Hotel du Temps de Thierry Ardisson et bien d’autres productions.

 À LIRE L’ARTICLE :
Does Kendrick Lamar Run Afoul of Copyright Law by Using Deepfakes in “The Heart Part 5”?

Gerald Holubowicz
https://geraldholubowi.cz
Ancien photojournaliste et web-documentariste primé, je travaille désormais comme chef de produit spécialisé en innovation éditoriale. J’ai notamment collaboré avec le journal Libération, les éditions Condé Nast, le pure player Spicee et le Groupe les Échos/le Parisien. À travers mon site journalism. design, j’écris sur le futur des médias et étudie l’impact des réalités synthétiques — notamment les deepfakes — sur la fabrique de l’information. Après 10 ans d’interventions régulières auprès des principales écoles de journalisme reconnues, j’interviens désormais à l’École de Journalisme et au Centre des Médias de Sciences Po à Paris.