SYNTH n°6 | Octobre 2022

💌 Bienvenue sur SYNTH, la newsletter d’info critique des médias synthétiques. Voilà un petit aperçu de ce que vous pouvez trouver une fois par mois sur SYNTH. Si le contenu vous intéresse, n’hésitez pas à vous abonner sur synth-media.fr.

UN-STABLE

Stable Diffusion, c’est le nom du service de génération texte vers images synthétiques qui bouleverse le monde créatif depuis le mois d’août. Si vous avez toujours rêvé de devenir un artiste, vous allez être comblé. Le service open source lancé cet été révolutionne la façon dont les images sont créées. Modèle d’apprentissage automatique, il permet de produire des résultats photoréalistes à partir de prompt — des textes écrits en langage courant — de la façon la plus simple qui soit. Aucune limitation, l’utilisateur peut générer du porno ou des images de politiciens — ce qui est interdit sur les autres services comme Dall.E ou Midjourney. Le service repose sur LAION-Aesthetics V2, une base de données de près de 2,3 milliards d’images toutes collectées sur le Net.

Mais Stable Diffusion ce n’est pas que cela. Le service provoque de nombreux débats éthiques à propos de ces effets susceptibles de déstabiliser le monde de la création et les fondements économiques de millions de créateurs à travers le monde. L’exploitation massive des images collectées par des centaines de milliers d’utilisateurs qui recréent, remixent, fabriquent sans intention de parfaits échos stylistiques d’œuvres existantes pose des questions d’attribution, de rémunération, de parenté artistique, de dilution de valeur patrimoniale insoupçonnée jusqu’alors.

Vous le verrez dans ce numéro 6 de SYNTHStable Diffusion est au cœur de polémiques diverses, qu’il s’agisse de questions artistiques ou économiques, les créateurs s’inquiètent et à juste raison.

Bonne lecture.


YIPPEE-KI-YAY

Bruce Willis apparait dans une publicité de Megafon, opérateur de téléphonie Russe, mais ce n'est pas lui, c'est un deepfake.

Bruce Willis apparait dans une publicité de Megafon, opérateur de téléphonie Russe, mais ce n’est pas lui, c’est un deepfake.

En avril dernier, Bruce Willis, alors âgé de 67 ans, annonçait la fin de sa carrière par communiqué de presse. Victime de troubles du langage, l’acteur américain apparaissait de plus en plus confus lors des tournages qui devenaient de plus en plus éprouvants. Pourtant, il y a quelques semaines, l’acteur, familier des castings de Tarantino et interprète de l’inoubliable Jonh McCLane de Die Hard, s’est retrouvé au milieu d’un imbroglio d’annonces contradictoires concernant son image et la suite de sa carrière.
Retour en arrière en 2021. Bruce Willis apparait alors dans une publicité russe pour Megafon, le second opérateur de téléphonie mobile en Russie. En réalité, il s’agit d’un deepfake réalisé par Deepcake, un studio géorgien fondé par Maria Chmir, implanté également aux États-Unis. Le studio affirme dans un communiqué que Willis a cédé les droits de son image pour créer un double numérique de lui-même. Retour en 2022, un article du Daily Mail annonce que Willis a cédé ses droits à l’image à Deepcake pour continuer d’apparaitre à l’écran malgré le diagnostic de sa maladie. Quelques jours plus tard, rétropédalage en règle, par la voix de ses représentants légaux, Willis annonce en réalité qu’il n’a pas vendu ses droits au studio georgien. Celui-ci a bien réalisé en toute légalité le deepfake pour Megafon, mais ne semble pas autorisé à aller plus loin.

« La formulation concernant les droits n’est pas bonne… Bruce n’a pas pu vendre de droits à qui que ce soit, ils sont à lui par défaut », affirme un représentant du studio. 

L’emballement médiatique et le debuking mis à part, cette histoire reflète plusieurs tendances lourdes du cinéma américain. Tout d’abord Hollywood semble avoir du mal à lâcher ses poules aux œufs d’or. On ne compte plus les franchises (MarvelDC) ni les suites (de Starwars au Seigneur des Anneaux en passant par la série des Fast and Furious) qui entretiennent la passion exaltée de générations de fans dont on sait qu’ils seront de bons clients. Ces machines à cash sérielles emploient le plus souvent les mêmes figures qui ont marqué le cinéma des années 80, de Samuel L. Jackson à Tom Cruise ou Tom Hanks et Georges Clooney. On s’accroche à ces stars qui frisent avec la soixantaine voire plus comme à de vieux doudous cinématographiques. Même malade, Bruce Willis continue d’être cette image iconique du film d’action des années 80 – 90 et par la même occasion l’assurance de vendre des films.
Le producteur Randall Emmett, au cœur d’un scandale comme seul Hollywood peut en mettre en scène, l’a bien compris. Il aurait notamment forcé Willis à tourner dans certains films en 2020 alors qu’il le savait malade. De là à penser que les deepfakes pourraient contribuer à sa fortune, il n’y a pas long.

Les stars représentent des entrées et des dollars et les deepfakes peuvent prolonger ad vitam aeternam les franchises et les acteurs qui les portent. James Earl Jones, la voix de Dark Vador, vient par exemple d’accepter que le studio ukrainien de deepfakes vocaux Respeecher utilise les archives de sa voix pour prolonger la présence de Vador dans Obi-One, une des dernières créations Starwars. Val Kilmer, atteint d’un cancer de la gorge a également bénéficié des services des deepfakes et d’autres stars sont numérisées afin d’être rajeunis dans de prochains films.

Alors va-t-on vivre éternellement avec les voix de notre passé cinématographique. Ira-t-on voir un « bon vieux Stallone » quand celui-ci sera mort et enterré depuis belle lurette ? Quelle place sera faite aux nouveaux acteurs ? Certains s’inquiètent déjà de l’impact des IA sur leur revenus et ont lancé “Stop AI Stealing the Show“. Quels droits nouveaux vont émerger de ces nouvelles collaborations ? C’est un tout nouveau paysage qui s’ouvre à nous. YIPPEE-KI-YAY lançait ce vieux Cowboy de McClane.

L’ÈRE DES COPIEURS

Une image réalisée à l'aide d'un prompt incluant le nom de Rutkowski sur Midjourney.( src: technologyreview.com )

Une image réalisée à l’aide d’un prompt incluant le nom de Rutkowski sur Midjourney.
( src: technologyreview.com )

« N’imitez rien ni personne. Un lion qui copie un lion devient un singe. » La citation qu’on prête à Victor Hugo pourrait peut-être rassurer Greg Rutkowski. L’artiste polonais, dont le style a atteint des sommets de popularité depuis que Disco Diffusion s’est emparé de son nom dans un de ses exemples de génération d’images synthétique, a travaillé avec les meilleurs. Dungeons & DragonsUbisoftSony font partie de ses clients et de ses meilleures références.

Dans un récent article publié sur son site, le MIT revient sur le phénomène qui a conduit cet artiste à devenir le nom le plus cité dans les prompts (les textes) de génération d’image sur Stable Diffusion. Près de 93 000 occurrences de son nom ont été référencées par Lexica, un site qui comptabilise les noms d’artistes utilisés dans les prompts servant à créer des images sur Dall.E et d’autres services. À titre de comparaison, Léonard de Vinci ou Michel Angelo affichent 20 fois moins d’occurrences.

Loin d’être flatteur, le phénomène inquiète l’artiste qui est désormais incapable de retrouver son propre travail dans la masse de résultats remontés par Google. La question se pose, combien de temps le législateur pourra-t-il ignorer cette zone grise du droit d’auteur ? La base de donnée qui sert à entrainer Midjourney et Stable Diffusion contient près de 5,8 milliards d’images, toutes collectées sur Internet sans consentement et utilisées sans compensation. À l’heure où l’Europe entend responsabiliser les GAFAMs, il est peut-être temps d’étendre cette responsabilisation aux nouveaux acteurs de la génération d’images synthétiques.

FACE D’IA

Le twitcher NymN a réalisé une série d’autoportraits partagée ensuite sur Twitter avec le générateur d’images synthétiques Dall.E qui accepte désormais les images de référence.

Le twitcher NymN a réalisé une série d’autoportraits partagée ensuite sur Twitter avec le générateur d’images synthétiques Dall.E qui accepte désormais les images de référence.

Open AI a décidé d’ouvrir son logiciel de génération d’images synthétiques Dall.E à l’utilisation de photos de visages. Dans un communiqué envoyé à ses utilisateurs et reproduit par TechCrunch, la compagnie (entre autres fondée par Elon Musk) a déclaré avoir amélioré son système de filtrage pour éviter de mauvaises utilisations comme des contenus pornographiques, violents ou politiques.

Pour être clair, il est maintenant possible de téléverser une image de soit pour qu’elle serve de base de travail à Dall.E et générer de nouvelles illustrations. Les photos de personnes réelles, de célébrités ou de personnalités publiques étaient pour le moment interdites. Avec l’arrivée de Stable Diffusion qui n’opère pas le même type de restriction, Open AI était forcé de réagir sous peine de voir son service perdre en popularité.

Les risques de mauvais usage restent entiers. Stable Diffusion est d’ores et déjà utilisé pour réaliser des deep-porns et la nature open source du logiciel rends les responsables de contenus illicites difficiles, voire impossibles à identifier. Open Ai échappe pour le moment à ce travers puisqu’il s’agit d’une entreprise connectée à de puissants GAFA comme Google. Cependant la nature même du statut de ces créations reste entière et les dérives possibles ne seront probablement jamais complètement maitrisées.

APPELLEZ MOI “LOAB”

Le visage macabre et inquiétant de cette femme a été découvert par l’artiste « Supercomposite » en avril 2022. Prénomée Loab, elle hante les espaces latents d’un générateur d’images synthétiques.

Le visage macabre et inquiétant de cette femme a été découvert par l’artiste « Supercomposite » en avril 2022. Prénomée Loab, elle hante les espaces latents d’un générateur d’images synthétiques.

Étrange histoire qui se cache derrière ce visage déformé tout droit sorti de l’imagination macabre d’un H.P Lovecraft. Cette femme, appelée LOAB, sans yeux et aux traits reconnaissables entre mille semble émerger d’un espace latent* cauchemardesque. « Supercomposite », une artiste et musicienne a découvert l’existence de cette figure démoniaque en expérimentant sur un des générateurs d’image qu’elle ne nomme jamais dans les différentes interviews qu’elle a pu accorder. Dans son thread sur Twitter (⚠️ ATTENTION : certaines images sont vraiment perturbantes), elle explique dans le détail, illustrations à l’appui, la démarche qui l’a conduite dans les recoins — véritablement — les plus sombres de cette intelligence artificielle.
Bien évidement, il ne s’agit rien d’autre que d’une aberration statistique, une interprétation des réseaux de neurones qui animent le générateur d’image. Le résultat, creepy à souhait, ne l’est que pour nous. Reste que pour inspirer les pires tourments les nuits d’hivers, LOAB reste une incarnation parfaite de l’horreur.

* cet espace théorique où se forment les images synthétiques

DYNAMIQUE DES FLUIDES VS DEEPFAKES

Par bruit, on ne parle évidemment pas du bruit sonore, mais du bruit d’un signal, c’est-à-dire la fluctuation parasite des pixels d’une image. En ajoutant à des images un bruit spécifiquement généré par un réseau de neurones adapté, puis en compressant à nouveau ces images sous un format classique du type .jpg, des chercheurs ont réussi à créer un modèle robuste de protection immune aux multiples compressions .jpg successives. Encore une méthode prometteuse et moins intrusive pour protéger des images sans avoir à tracer leur provenance.

L’ÉTUDE :
TAFIM: Targeted Adversarial Attacks against Face Image Manipulations

🇪🇺 QUI POSSÈDE LES DONNÉES UTILISÉES PAR UNE IA ?

Peindre à la façon de Van Gogh, dessiner comme Moebius, la promesse des générateurs d’images synthétiques comme Dall.e ou Midjourney soulève de nombreuses questions de droit. Pour réaliser ces imitations, les générateurs d’images collectent sur Internet des images pour nourrir leur base de données de mille différents styles et directions artistiques différentes. Problème, aux États-Unis ce chalutage artistique tombe dans l’escarcelle du « Fair Use », un principe tiré de la jurisprudence américaine qui autorise les artistes à utiliser des contenus protégés par le droit de la propriété sans être soumis à ses obligations. Face à cette dérive, Holly Herndon et Mat Dryhurst un couple d’artistes installés à Berlin, ont décidé de prendre les choses en main en lançant Source +, un standard permettant aux artistes d’autoriser (ou pas) l’utilisation de leurs œuvres par les créateurs d’IA. L’enjeu, éviter l’appropriation illégale des œuvres d’art, le pillage des artistes reconnus, la sensibilisation à une utilisation éthique des contenus destinés à alimenter les bases de données.

L’ARTICLE COMPLET :
This couple is launching an organization to protect artists in the AI era

 

Chris Ume, le créateur du compte TikTok #deepTomCruise désormais phénomène médiatique international et sa boite Metaphysic continue son ascension dans America Got’s Talent. Pour la dernière émission, c’est une incarnation du King himself, Elvis Presley, tout en tenue d’or et de paillettes qui a pris le micro au côté des synthétiques Simon Cowell, Heidi Klum et Sofia Vergara. Parfois un peu figé, Elvis reste tout de même assez impressionnant, la prestation étant réalisée en quasi live (les modèles sont bien entendu entrainés en amont de l’émission). La prestation a certainement marqué les esprits du côté d’Hollywood qui inclut de plus en plus de deepfakes (ou vidéos hyperréalistes comme les appelle désormais Chris Ume) dans ses productions. Le revival de star disparu a certainement de beaux jours devant lui. Maintenant que la technique a quitté les chaines YouTube et s’est adaptée aux plateaux TV, nul doute que des évènements live auront lieu dans un futur proche. En France verrons-nous un duo Claude François Zazie ? Aux États-Unis en tous cas, ce type de spectacle ferait certainement fureur. Imaginez un concert Tupac Notorious Big, ou Johnny Cash Elvis… Le concept en tous cas offre un pont d’or à Thierry Ardisson qui devrait en profiter pour exporter son émission « Hôtel du Temps ».

 LA VIDÉO :   à découvrir ici

Author avatar
Gerald Holubowicz
http://geraldholubowi.cz
Ancien photojournaliste et web-documentariste primé, je travaille désormais comme chef de produit spécialisé en innovation éditoriale. J’ai notamment collaboré avec le journal Libération, les éditions Condé Nast, le pure player Spicee et le Groupe les Échos/le Parisien. À travers mon site journalism. design, j’écris sur le futur des médias et étudie l’impact des réalités synthétiques — notamment les deepfakes — sur la fabrique de l’information. Après 10 ans d’interventions régulières auprès des principales écoles de journalisme reconnues, j’interviens désormais à l’École de Journalisme et au Centre des Médias de Sciences Po à Paris.