Retour

Les rédactions face À l’intoxication des IA

Un mot avant de vous plonger dans l’univers des deepfakes. Depuis décembre 2017, j’ai entamé à Sciences Po Paris un Executive Master “Management des Médias et du Numérique”. Le sujet du mémoire que j’ai choisi de défendre en conclusion de cette année de formation porte sur les deepfakes, ces vidéos manipulées à l’aide d’algorithmes qui commencent désormais à se multiplier sur internet. Ce post me permet d’inaugurer une toute nouvelle section de Journalism.design sur les deepfakes qui j’espère vous intéressera autant que moi. Bonne lecture.

Ce qui arrive est pire que les fake news.

Après quelques mois passés à se focaliser sur les infos toxiques (qu’on appelle encore « fake news »), il semble que les rédactions se soient toutes plus ou moins organisées pour assumer leur rôle dans cette bataille contre la désinformation. Différents services ont été créés pour l’occasion. Certains ont rejoint les initiatives lancées par Google et Facebook. Les autres continuent à désamorcer les « faits alternatifs » à la main. Rien n’indique pour l’instant que ces efforts soient payants. Les récentes modifications de l’algorithme de Facebook tendraient même à suggérer le contraire.

Que la position des rédactions (dans cette mécanique complexe de vérification) soit légitime ou non, il semble que nous n’ayons pas d’autre choix pour l’instant que d’essayer d’endiguer les flots d’infos toxiques qui sont déversés chaque jour sur les réseaux ou sur Whatsapp. Pourtant les « Fake News » ne semblent plus si problématiques quand on porte notre regard au-delà de la ligne d’horizon. Quant au détour d’une conférence, le futur qui s’élabore dans les labos du MIT, d’Adobe ou de Stanford s’échappe et expose sa brutale réalité au monde. Les réseaux de neurones artificiels autorisent toutes les manipulations sur les images, des plus fun aux plus éthiquement problématiques. C’est de ces dernières que nous parlons aujourd’hui.

À l’origine, la photo manipulée.

Première à voir son intégrité menacée : la photo. Si les retouches font partie de l’histoire de la photographie et du photojournalisme, les récentes avancées les rendent quasiment indétectables. Il ne faut pas remonter très loin avant de trouver les cas les plus marquants, mais les exemples de manipulation ont émaillé la pratique photo dès ses origines, le plus souvent pour des raisons propagandistes. La guerre de Sécession en est le premier exemple, mais on peut retrouver des exemples pendant la révolution russe.

[twenty20 img1=”21942″ img2=”21943″ offset=”0.5″]

Plus proches de nous, les tirs de démonstration menés par l’Iran destinés à impressionner Israël ont également fait l’objet d’une petite retouche pour éviter les rires moqueurs de la communauté internationale.

[twenty20 img1=”21945″ img2=”21946″ offset=”0.5″]

Les professionnels de l’information n’échappent pas à la règle, même les plus grands. Steve McCurry, légendaire photographe connu pour son portrait de Sharbat Gula, jeune Afghane aux yeux émeraude apparut en couverture de National Geographic en 1985 a été pris la main dans le sac. Celui que nombre photographes ont vénéré se retrouve au milieu d’une controverse à la mi-2016 quand un photographe italien,

Paolo Viglione découvre avec stupéfaction une misérable retouche Photoshop sur une des images du maitre. Visible,comme le nez au milieu du visage, les manipulations grossières se retrouvent sur d’autres images de la collection. McCurry, après un silence de plomb, décide de rompre son mutisme et affirme que si sa carrière a commencé comme photojournaliste, il se considère désormais un « visual storyteller » et n’a donc pas à être tenu responsable de désinformation. Un argument discutable s’il en est.

On comprend bien que les outils de retouche se sont largement démocratisés avec le temps et que rien n’empêche aujourd’hui de modifier ou supprimer tout ou partie d’une image pour en modifier le sens.

5 étapes pour détecter les manipulations photographiques.

Les choses se corsent un peu plus dès qu’il s’agit d’authentifier la véracité d’une photographie. Plusieurs méthodes existent et il s’agit d’en cumuler quelques-unes afin d’être certain que l’image que vous avez reçue n’est pas un faux.

  1. Pour commencer, prenez le temps de faire une recherche inversée sur Google image. Si celle-ci contient des similarités avec d’autres images déjà connues, vous pourrez aisément comparer les différences comme vous le faisiez quand vous étiez enfant avec les jeux des 7 différences.
  2. Second réflexe, ouvrez votre image dans Photoshop ou un logiciel similaire et zoomez dans l’image jusqu’à atteindre le pixel. Vous découvrirez une grille de points qui — s’ils ont été modifiés à l’aide d’un outil spécifique — donneront l’impression de ne pas former des formes cohérentes.
  3. Vérifiez les données EXIF de la photographie. À chaque prise de vues, les données d’une image sont sauvegardées dans un petit fichier inclus à l’image qui permet de cataloguer les caractéristiques techniques de la prise de vue : vitesse, diaphragme, date, lieu, modèle de l’appareil, type d’objectif, type d’encodage et le logiciel ayant effectué la dernière sauvegarde. C’est l’ADN de la photo. Si ces données ne sont pas visibles, méfiance. Si elles ne sont pas cohérentes avec l’image ouverte, méfiance.
  4. Vérifiez l’orientation des ombres, jouez avec les courbes sur Photoshop pour faire apparaitre des trames suspectes, des pixels fantômes ou des artefacts de compression trop forts (qui indiquent de trop nombreux enregistrements et laissent penser à une manipulation).
  5. Enfin si le doute persiste, passez votre image à travers cet outil en ligne. Izitru est un validateur d’image qui vous donnera une indication de véracité. Attention toutefois, cet outil donne parfois des faux positifs pour des raisons techniques trop compliquées à expliquer ici. Soyez juste prudent. D’autres logiciels en ligne sont disponibles: fotoforensics.com, impulseadventure.com, Forensicaly ou Girho.

Les images manipulées par les intelligences artificielles.

Si Photoshop reste un outil fantastique pour les créatifs, il est également un outil à utiliser prudemment dès lors qu’il s’agit d’information. La compagnie derrière ce logiciel, Adobe, mène des recherches très intenses pour développer des outils permettant à quiconque de modifier de façon extrêmement réaliste tout type d’images. Du selfie à la vidéo en passant par le son, Adobe réinvente la retouche à l’aide de son IA appelée « Sensei ». Senseï est un moteur qui croise les données d’un stock de plusieurs milliers d’images pour générer à l’aide du Deep Learning des images partiellement ou complètement artificielles. Conçu comme une aide à la création, le moteur semble désormais apporter une dimension plus invasive dans la retouche d’images.

Le selfie pour les nuls.

Première cible d’Adobe Senseï, les selfies. Tout le monde a eu l’occasion de se prendre en photo à l’aide de son téléphone et les résultats sont rarement convaincants du fait de la proximité de la caméra et du type d’objectif utilisé sur les téléphones portables. Heureusement, “there’s an app for that”. En l’espace de quelques secondes, les perspectives sont redressées. Un visage long et partiellement déformé retrouve les bonnes proportions. Le fond, trop présent, s’efface dans un flou parfaitement maitrisé. Fan de Steve McCurry ? Vous pouvez même copier le style de l’image pour l’adapter à votre propre selfie. Le tout, le plus naturellement du monde. Voyez plutôt cette vidéo de démonstration.

L’apparition de l’intelligence artificielle dans ce cas précis ne pose que des questions sur la portée de l’expérience photographique désormais nécessaire pour réaliser de bons clichés. Comment reconnait-on un bon photographe ? La technologie n’en demeure pas moins fantastique quand on y pense. Avoir la capacité de réaliser de meilleures photos, en l’espace de quelques secondes, c’est assurer à l’image fixe un avenir radieux, même si on triche un peu.

La vidéo manipulée par l’intelligence artificielle.

Grâce à l’arrivée des réseaux de neurones artificiels, les choses s’accélèrent. Les réseaux de neurones sont bien entendu artificiels et peuvent apprendre seuls à reconnaitre des schémas répétitifs, des règles simples ou complexes, bref c’est le début de l’eldorado de l’intelligence artificielle. Grâce à ces réseaux, la machine (alimentée par des bases de données colossales) peut apprendre à reconnaitre un chat, un chien, votre visage et ceux de vos amis… ça vous rappelle évidemment quelque chose puisque c’est en partie ce qui commence à animer la reconnaissance faciale de votre iPhone.

Première application possible, le fun. Pourquoi pas transformer sa photo de profil en cartoon, en peinture… et pourquoi pas l’animer ? C’est ce que le projet Pupetron (vidéo ci-dessous) propose de faire. Une démonstration spectaculaire qui donne à imaginer ce qu’on peut déjà réaliser avec une simple image.

Et pourquoi imaginer ce qu’on pourrait faire quand on peut le faire réellement ?
Les réseaux de neurones capables de telles prouesses sont également capables de faire bien mieux — ou pire — que cela.
Pourquoi pas greffer le visage d’une personne sur une autre, pourquoi pas éditer sa voix de façon réaliste, lui faire dire des choses qu’elle n’a jamais dite ?

Premier acte : Quand Obama repeat after me

À l’université de Washington, une équipe de chercheur a réussi à synchroniser un enregistrement sonore de Barack Obama sur une vidéo différente tout en gardant la synchronisation labiale. Le résultat est tout simplement étonnant. On découvre la vidéo originale et le rendu sans détecter laquelle des deux est la vidéo source.

Second acte : La poupée qui fait Trump

Autres établissements, autres noms et une avancée plus loin. Des chercheurs des universités de Nuremberg, l’institut Max Planck et l’université de Stanford réalisent une synchronisation entre un acteur et une vidéo, permettant le doublage live. En gros, il est désormais possible de réaliser une « poupée » basée sur la représentation d’une personne connue ou inconnue et de lui faire dire n’importe quoi.

Troisième acte : Quand une app fait mieux que des millions de dollars

Les fans de sabre lasers et de Jedi seront peut être moins surpris puisque dans « Rogue One », un épisode parallèle à la saga originale, on découvre le Grand Mof « Tarkin » incarné par Peter Cushing, 23 ans après que l’acteur soit décédé. En jeu, des heures et des heures de travail pour les artisans des effets spéciaux d’Hollywood d’Industrial Light and Magic sous la supervision de John Knoll. Des efforts passablement ridiculisés par un passionné qui publiait quelques mois après — sous le nom de Deepfake — une séquence réalisée avec les moyens du bord (comparés au million de L & M).

Encore une fois, le résultat est bluffant et pose de plus en plus de questions éthiques.

Quatrième acte : Supprimer les informations.

Les considérations éthiques sont bien entendu centrales dans le cas de la manipulation d’images, notamment quand il s’agit de changer l’identité de personnes ou de modifier leurs comportements. Mais supprimer des informations d’une scène filmée peut être également problématique pour le public et la véracité des documents diffusés. Comment en effet ne pas se souvenir de ces images de la révolution russe ou de la Seconde Guerre mondiale où ceux tombés en disgrâce ont disparu de photos officielles ? La suppression de certaines parties d’une photographie peut paraitre compliquée, mais elle n’est en réalité qu’affaire de patience. En revanche, la suppression d’éléments dans une vidéo déjà tournée reste un véritable challenge pour tout professionnel de la vidéo. Le même Adobe, qui commercialise le logiciel de retouche Photoshop a créé un programme permettant un masquage dynamique d’éléments contenus dans une vidéo (dans l’exemple un lampadaire) qui rend la suppression complètement invisible à l’œil nu.

Toujours plus fort dans le chapitre manipulation, c’est carrément le fabriquant de cartes graphiques NVIDIA et un chercheur de UC Berkeley qui travaillent main dans la main une la manipulation sémantique d’image assistée par une intelligence artificielle. Derrière ce jargon très technique, il s’agit en fait de pouvoir « éditer » à la volée, enlever, ajouter des éléments, dans une vidéo haute résolution.

Les rédactions en mode « Panic » ?

Nul doute que des images manipulées de la sorte vont très rapidement envahir la sphère publique et les réseaux. Barack Obama avouant qu’il est bien né en Afrique, Emmanuel Macron avouant une relation extra-conjugale ou Theresa May implorant le peuple britannique de réintégrer l’Europe, voilà le genre d’infos toxiques qu’il serait possible de voir dans quelques mois ou années. Des vidéos complètement truquées évidemment, mais qui auraient sans doute un impact fort sur les décisions politiques des nations en période électorale. Comment les analyser, comment vérifier leur authenticité ? Les rédactions en France comme à l’étranger sont-elles prêtes ?

Les mêmes qui n’ont pas vu venir le phénomène de Fake News sont elles capables de s’organiser pour détecter ces faux d’un nouveau genre ? Les rédactions ont-elles pensé les protocoles de vérification, investis dans les outils ad hoc pour éviter de se faire intoxiquer par des vidéos plus vraies que nature ?

Quelques solutions de cryptage existent déjà et pourraient être employées pour « certifier » l’ensemble des contenus produits par les médias professionnels. La récente technologie de blockchain avec son protocole réputé inviolable pourrait se révéler très utile sur ce point. Il faudrait néanmoins que les médias fassent bloc pour investir en recherche et développement et au final adopter en masse une technologie de détection et/ou de certification de l’intégrité de leurs informations.

Une régulation et un accord industriel large avec les fabricants de matériels et de logiciels pourraient également constituer une avancée notable. Ce qui est certain, c’est qu’il est nécessaire d’anticiper la déferlante avant qu’elle nous emporte. Et au mieux, si la déferlante n’est en fait qu’un petit clapot, les mesures prises permettront aux médias de gagner en compétence sur la question de l’imagerie manipulée.

La question éthique.

Il n’est – bien sûr – pas question de marquer au fer rouge les nouvelles technologies, les intelligences artificielles faibles ni les ingénieurs de chez Adobe ou les chercheurs des différentes universités impliquées. La question éthique cependant se pose de façon transversale et concerne tous les acteurs impliqués dans la création de ces nouvelles technologies. Il est frappant de constater — au visionnage des vidéos Adobe notamment — l’extrême détachement des présentateurs qui ne semblent pas imaginer que leurs prouesses — au-delà du cool — sont porteuses de problématiques sérieuses.

Chacun semble rester dans son couloir, déconnecté des questions d’éthique sociale que leurs recherches soulèvent. L’enfer est pavé de bonnes intentions et je ne doute pas une seconde que les leurs sont absolument bonnes, mais il est important pour les industries de l’information de structurer une réponse face à l’émergence de ces technologies avant qu’une fois de plus nous soyons tous submergés et que bras ballants, nous comptions les catastrophes qui auraient pu être évitées.

Gerald Holubowicz
https://geraldholubowi.cz
Ancien photojournaliste et web-documentariste primé, je travaille désormais comme chef de produit spécialisé en innovation éditoriale. J’ai notamment collaboré avec le journal Libération, les éditions Condé Nast, le pure player Spicee et le Groupe les Échos/le Parisien. À travers mon site journalism. design, j’écris sur le futur des médias et étudie l’impact des réalités synthétiques — notamment les deepfakes — sur la fabrique de l’information. Après 10 ans d’interventions régulières auprès des principales écoles de journalisme reconnues, j’interviens désormais à l’École de Journalisme et au Centre des Médias de Sciences Po à Paris.