Plus vraies que les originales ! Et bidonnées en temps réel… Les deepfakes – des vidéos canulars shootées aux algorithmes et à l’intelligence artificielle – vont perturber les prochaines élections sous l’influence de puissances étrangères. Mytho ou parano ?
Marion Maréchal Le Pen qui fume un joint de weed devant la station Barbès, Benoit Hamon déclarant la guerre aux salauds de gauchistes, ou Emmanuel Macron habillé en black block sur les Champs Elysées, les prochaines échéances électorales devraient livrer leur lot de surprises vidéo-ludiques. Fin janvier, l’expert au Centre pour une nouvelle sécurité américaine, Paul Scharre, spéculait : « Au cours des deux prochaines années, nous verrons des vidéos truquées jouer un rôle dans les campagnes politiques aux États-Unis ou en Europe (…) pour essayer d’influencer ou de salir les candidats, et ce sera un défi pour les démocraties. » Car les récents progrès en matière d’intelligence artificielle devraient ravir militants et complotistes acharnés du tweet impulsif, et compromettre au passage nos idéaux démocratiques.
ARME DE DESINFORMATION MASSIVE
Ce qui a mis le feu est poudre est sans doute cette vidéo de Barack Obama publié par BuzzFeed en 2018 et visionnée plus de 5 millions de fois. L’ancien président démocrate s’y adresse sans retenue contre son successeur Donald Trump, le traitant « d’idiot total et absolu, avant de reprendre, nous entrons dans une ère où nos ennemis peuvent nous faire croire que n’importe qui dit n’importe quoi à n’importe quel moment ». Le rideau tombe enfin lorsque l’image se scinde en deux et fait apparaître le comédien Jordan Peele dont les mouvements faciaux étaient calqués sur le visage de Barack Obama. Une deepfake d’un réalisme total, bluffant, qui pourrait bien se développer au service d’une désinformation de grande ampleur. Florian Silnicki est fondateur de l’agence LaFrenchCom spécialisée dans la gestion de communication de crise.
Sa clientèle : des personnalités publiques, acteurs, politiciens, industriels. « Il n’y a pas d’activité humaine sans risque. Au théâtre, les rôles sont distribués dès le début, on est le gentil ou le méchant, et c’est difficile de déconstruire un schéma de perception. » Très fréquemment amené à défendre les intérêts de clients victimes de fake news, l’expert voit s’immiscer des nouvelles technologies redoutables qui rendent obsolètes les moyens actuels de lutte contre la désinformation. « La rumeur peut être combattue sans difficulté. En revanche, j’ai une inquiétude : l’alliance de l’intelligence artificielle, de moyens colossaux et d’algorithmes de plus en plus performants. J’ai aujourd’hui des sollicitations d’avocats étrangers qui me demandent de contribuer à la diffusion d’informations dont ils savent qu’elles sont fausses, depuis la France, pour lancer une croyance collective. On n’a jamais accepté ce genre de prestation, mais j’imagine que certains le font…On n’est encore qu’aux balbutiements. » Là est le danger : la manipulation de la deepfake pourrait très prochainement sortir du cadre expérimental pour être utilisée par des entités malveillantes.
Vincent Nozick est maître de conférence à l’Université Paris-Est. Dans ses bureaux, à la décoration minimaliste installés à l’ESIEE, école spécialisée en innovation technologique basée à Noisy-Le-Grand, ce chercheur en informatique est devenu un interlocuteur phare depuis qu’il a mis au point une méthode capable de détecter les deepfakes. Il a vu le phénomène se perfectionner et prendre de l’ampleur : « Un état peut avoir un intérêt à ce qu’un autre pays s’exprime d’une certaine façon sur un sujet, quitte à créer une deepfake d’un président étranger pour créer une angoisse d’un conflit par exemple, et la diff user à grande échelle. » En Belgique, une deepfake humoristique faisait dire à Trump des propos pro-écologistes. « C’était écrit dessus, en sous-titre, que c’était une deepfake. Mais c’était trop tard, psychologiquement on garde une trace. » À l’inverse, un représentant politique qui a tenu des propos filmés qu’il n’assume plus, pourrait prétendre avoir été victime d’une deepfake…
WONDER WOMAN ET HACKER ANONYME
Pour comprendre la force de frappe de cette technologie dévastatrice, il faut remonter à 2017 pour voir les premières deepfakes apparaitre sur la toile…et ses premières victimes. Alors qu’elle est au cinéma la Wonder Woman de Patty Jenkins, fi lm aux 800 millions de dollars de recette pour lequel elle reçoit le prix de la meilleure actrice aux Teen Choice Awards – l’actrice israélienne Gal Gadot s’impose comme l’une des personnalités les plus infl uentes au monde. Ses tenues légères en super héroïne font saliver les adulescents fans de teen movies et les cinéphiles lubriques. Objet de tous les fantasmes, elle va aussi être victime de la Règle 34, l’une des dix lois les plus célèbres d’internet : « Si ça existe, il y a du porno à ce sujet ». Début décembre, une mystérieuse vidéo X fait son apparition sur Reddit – site communautaire américain – avec, en vedette, Gal Gadot, débardeur rouge et petit short noir, prête à s’off rir sur un lit blanc immaculé. L’héroïne avait-elle l’intention de devenir la nouvelle girl next door du X à 33 ans ? Elle n’est, en réalité, que la cobaye d’un hacker anonyme qui se cache sous le pseudonyme Deepfakes. Son premier essai, même s’il a quelques défauts de conception – certains mouvements du visage sont fl ous, désynchronisés – annonce le potentiel d’une arme de destruction massive dont le logiciel est en accès libre sur internet. Par la superposition de visages célèbres sur ceux d’actrices pornos en plein ébat sexuel, la Deepfake matérialise les fantasmes de millions d’internautes, et rend la frontière entre réalité et virtuel encore plus ténue. Scarlett Johansson est également une cible. Dans une interview accordée au Washington Post, elle s’avoue vaincue : « Internet est un vaste trou de ver qui s’auto-détruit. Le fait est qu’essayer de se protéger d’Internet et de sa dépravation est fondamentalement une cause perdue. »
La technologie utilisée, le deeplearning, qui existe depuis une dizaine d’années, a en effet besoin d’une base de données solide d’images du visage ciblé sous tous les angles possibles pour construire un montage crédible. « Avant il s’agissait des falsifications d’images. Personne ne s’était frotté à la vidéo, mais moi j’étais prêt, explique Vincent Nozick. Pour réaliser une deepfake parfaite, il faut une cible dont on a beaucoup de vidéos et d’images, donc un personnage public. À priori, votre voisin ou votre belle soeur, c’est mal barré. » Cette intelligence artificielle est capable à elle seule d’imiter nos réseaux de neurones pour échanger un visage avec un autre et traduire ses moindres mouvements. « Le danger, c’est que tout le monde peut le faire puisque la deepfake est une combinaison de logiciels en open source dont TensorFlow de Google, accessible à tous. » Pire encore, des sites et des applications comme deepfakesapp proposent de mâcher tout le boulot, légèrement fastidieux. « Tout vient du machine learning, qui consiste à apprendre manuellement à un ordinateur de reconnaître certains objets, visages, qu’on lui soumet image par image. En réglant quelques paramètres, ça demande juste un peu d’expérience sur la collecte de données mais pas de connaissances particulières, ça prendra la journée, pas plus. » Avant de rendre sa méthode de détection publique, l’universitaire s’est frotté à une problématique inédite : « Nos bases de données étaient à 80 % du porno, donc on ne pouvait pas les mettre en ligne, les échanges restaient privées. » Et tant que la deepfake restait dans le porno, seul l’intégrité morale des cibles étaient atteinte. Si son récent virage en politique pose de sérieux problèmes éthiques aux conséquences bien plus graves, quand est-il dans le privé ?
FACE2FACE, LA ROLLS-ROYCE
Chez Facebook, on a compris depuis longtemps le potentiel du deeplearning. Pour preuve, le Français Yann Le Cun, numéro un de l’intelligence artifi cielle chez le réseau social qui a changé la face du monde, vient tout juste d’être récompensé par le prix Turing, « l’équivalent du prix Nobel d’informatique, selon le Journaldugeek, pour avoir posé les bases du deeplearning au cours des trois décennies passées. » Contacté par nos soins, l’intéressé n’a pas souhaité répondre à nos sollicitations concernant les moyens mis en oeuvre par Facebook pour lutter contre la propagation de vidéos deepfakes. Sujet sensible ? Certaines entreprises auraient de gros intérêts à perfectionner le deeplearning, « La recherche scientifi que est de plus en plus mal fi nancée. Développer un outil performant en deeplearning et le vendre à une société, pour un chercheur c’est le jackpot. » On peut s’interroger à ce sujet sur le récent silence de l’équipe de chercheurs allemands menée par Matthias Niessner, à Munich. En 2016, ils publiaient sur youtube la Rolls-Royce de la deepfake : un logiciel capable de capturer les mouvements d’un visage et de les calquer sur un autre, mais cette fois en temps réel, avec l’aide d’une simple webcam. Trump, Bush, Poutine, fi guraient parmi les victimes de cette méthode appelée Face2Face. « C’est méga flippant parce que là, il n’y a même plus besoin de collecter des données, c’est génial, jubile Vincent Nozick, qui met en garde cependant contre les réelles intentions de ses confrères allemands. Ma méthode de détection ne fonctionne pas avec Face2Face, donc elle est déjà dépassée. Là où je m’interroge, c’est que les allemands n’ont pas mis leur logiciel en accès libre comme d’autres l’ont fait. Soit ils se sont rendus compte de sa dangerosité, soit ils l’ont vendu. Cela peut représenter plus de 100 fois la dotation annuelle de leur laboratoire, c’est inestimable ! »
DE HOLLYWOOD À LA DARPA
Loin d’être envisagée dans le seul but de nuire, la deepfake est déjà utilisée dans la production audiovisuelle à des fins purement créatives. C’est le cas dans la post-production et l’animation. Et demain ? « Votre acteur meurt au milieu d’un tournage. Avec la deepfake, en un mois, le problème est réglée, vous pouvez finir votre film avec le visage de l’acteur » plaisante Vincent Nozick. Dernièrement, une vidéo où la voix de David Beckham est remplacée par celles de survivants de la malaria a permis de récolter trois millions de dollars pour une association humanitaire. Selon Claire Wardle, directrice de la coalition américaine First Draft, organisme de détections des fakes news, l’impact de la deepfake dans la sphère politique n’est, pour l’heure, que pure spéculation. Mais qu’en est-il pour les prochaines échéances électorales ? « Nous sommes à environ quatre ans du niveau de sophistication qui pourrait causer de sérieux dommages et il existe actuellement une course aux armements pour la production d’outils permettant de détecter efficacement ce type de contenu » explique-t-elle dans une interview accordée à la fondation Nieman Lab de l’Université d’Harvard. D’ici là, ceux qui n’auront pas investi efficacement et anticiper l’impact de la deepfake, pourraient payer très cher leur retard. Aux Etats-Unis, la DARPA, l’agence de défense gouvernementale spécialisée dans la recherche et le développement des nouvelles technologies à usage militaire, a déjà investi 60 millions de dollars pour lutter contre les deepfakes.
Lire aussi : Tinder : les dessous de l’algorithme de l’amour
Son équivalent français, la DGA, n’a rien anticipé de tel. Idem au niveau européen. Le chercheur Vincent Nozick le sait bien : « Les seuls qui sont au point, c’est les Américains et de très très loin. Ils ont tout l’argent qu’il faut pour être hyper bon, même dans le privé, rien que le budget de la recherche d’Amazon, c’est quatre fois celui du CNRS. C’est juste risible. » Pierre Ganz, vice-président de l’ODI (l’Observatoire de la déontologie de l’information), conclut : « Quand on voit que des journalistes ne sont pas capables de détecter un poisson d’avril… Il va falloir traquer, mais avec des formations et des outils. Le risque est plus grand sur le plan démocratique qu’il y a 50 ou 60 ans. »
BAPTISTE MANZINALI