Académie d’Alsace des Sciences, Lettres et Arts
    Académie d’Alsace   des Sciences, Lettres et Arts  

Deepfakes  : la lutte est engagée

L. Soncini pour le Temps

Par Daniel Guinier
 

Ancien expert devant la Cour pénale Internationale de La Haye,
chargé d'enseignement universitaire et conférencier

 

 

 

 

La technologie invite un jour au progrès et le lendemain dévoile son côté obscur et ses effets pervers. L'ère numérique n'échappe pas à cette règle. Elle est amplifiée par la présence d'un écosystème technologique convergeant en mesure de générer rapidement des déviances sans frein pour les limiter. Ainsi, aux bienfaits du numérique, de l'Internet et de l'intelligence artificielle (IA), vient se greffer la part négative, avec notamment la désinformation de masse et l'ingérence au travers des réseaux sociaux et les deepfakes.

Tandis que la nature et l'ampleur de la menace sont loin d'être connues, les phénomènes conjoints méritent la plus grande attention. Certaines conséquences ont déjà été entrevues, tant au plan des personnes que géopolitique, au point que certains dirigeants en viennent à réclamer une trêve technologique, ce qui semble impensable du fait d'intérêts discordants. Il s'agit ici d'examiner les actions à envisager.

 

Introduction

 

Deepfake est un terme formé à partir de deep learning (apprentissage profond) et fake (contrefait). Il désigne des techniques de trucage multimédia hyperréalistes reposant sur l'IA, dans l'intention de tromper en créant des canulars et de fausses informations (infox). Les quatre formes sont liées aux médias son, image, vidéo et texte. Concernant les trois premières, il s'agit de superposer des enregistrements synthétiques de façon à reproduire l'expression du visage ou la voix d'une personne, à partir d'enregistrements originaux réalisés de façon classique souvent disponibles sur l'Internet, en la représentant de façon trompeuse dans une attitude ou un lieu différent, et en lui faisait prononcer des propos qu'elle n'a pas tenus. La quatrième forme relève de texte génératif pour laquelle il s'agit de coupler des modèles de langage naturel avec l'IA pour laisser croire à une création humaine.

Ainsi avec l'IA, les médias sociaux n'auraient pas besoin d'opérateurs humains pour la création de contenu. Cela pourrait être utilisé pour produire de fausses informations en masse sur les réseaux sociaux, en disposant, de surcroit, du recours aux "bots" sociaux comme vecteurs. Contrairement aux "bots" traditionnels, -programmes qui s'exécutent sur un grand nombre de machines compromises (dites "zombies") d'adresse IP pour diriger des actions malveillantes coordonnées-, les "bots" sociaux sont liés à des comptes d'appartenance à un réseau social pour interagir en temps réel.

En 2016, nous avions alerté sur leur capacité d'être pris pour des humains pour ouvrir des comptes, désinformer et manipuler de façon massive en ayant recours à des fausses informations et à l'IA. Associés aux deepfakes ils pourront donc en favoriser la diffusion et l'accompagnement.

Bien des situations seront à surmonter si on en juge par ces quelques exemples, alors que l'offre en matière de génération de deepfakes ne cesse de croître sur l'Internet depuis 2016.
En 2017, la BBC diffuse un discours du président Barack Obama émanant d'une AI, essentiellement indiscernable de la réalité, puis en janvier 2018, une application en ligne nommée FakeApp  permet de modifier des vidéos où les visages sont permutés. A cette époque, des célébrités ont été les principales victimes de deepfakes à caractère sexuel.

En 2020 le directeur d’une banque reçoit un appel téléphonique d’un dirigeant d'entreprise avec qui il s’était déjà entretenu et dont il reconnaît parfaitement la voix. Ce que le banquier ne soupçonne pas, c’est que la voix est générée par une IA. Il lui est demandé d'autoriser des transferts internationaux à hauteur de 35 millions de dollars pour finaliser une acquisition. Ce type d'escroquerie bien connue dite "arnaque au président" se trouve ici "augmentée" par l’IA.
En 2022, une vidéo est apparue en ligne sur l'Internet montrant le président de l'Ukraine, Volodymyr Zelensky appelant ses soldats à déposer leurs armes face à l'invasion de la Russie. Bien que la vidéo soit de qualité médiocre, permettant de démasquer rapidement la supercherie, la présence virale d'une telle vidéo de meilleure qualité sur les réseaux sociaux aurait pu avoir de graves conséquences.

En 2023, la France a formellement accusé la Russie de mener une vaste opération d'ingérence numérique pour avoir publié de faux articles hostiles à l'Ukraine sensés édités par de grands quotidiens français, marquant ainsi un nouvel épisode de la guerre hybride menée contre les Occidentaux, sans même pour cela avoir besoin d'IA…

Il en ressort que la détection et le traitement des fausses informations, de leur origine et de leur diffusion en masse sont des défis alarmants, dans un monde où les sources d'information sont multiples et décentralisées.

 

 

Détection des deepfakes

 

Une compétition est engagée entre la génération et la détection de médias synthétiques. A partir d'une nouvelle méthode de détection, il est possible de créer un algorithme de génération capable de tromper cette dernière. Il est cependant constaté des progrès dans la robustesse et la précision de la détection, notamment en utilisant des signaux physiques et biologiques difficiles à imiter par l'IA, et en s'assurant que la détection soit généralisable et difficilement rétro-ingéniérée pour ne pas aider à développer de nouveaux générateurs de deepfakes. Enfin, le système devrait pouvoir être utilisable en soumettant tout fichier suspect au travers d'une plateforme, comme celle proposée par Intel avec FakeCatcher.

FakeCatcher, développé par U. A. Ciftc, et al. (2020), repose sur une technique d'exploration optique non invasive attachée aux variations du volume sanguin microvasculaire dues à la nature pulsatile de la circulation, dénommée photopléthysmographie. FakeCatcher cherche des indices authentiques dans des vidéos réelles en évaluant les flux sanguins tandis que le cœur pompe le sang et que les veines changent de couleur. Après un apprentissage automatique, il est possible de détecter en temps réel et avec précision si une vidéo est fausse, du fait que le bruit ajouté par toute opération générative perturbe les corrélations spatiales, spectrales et temporelles, et supprime certains signaux.

La détection peut aussi être renforcée en s'appuyant sur le mouvement facial naturel qui obéit à la structure du visage, tandis que celui des deepfakes est différent.

PhaseForensics, développé par E. Prashnani et al. (2022), utilise l'une de ces techniques qui exploite la représentation du mouvement fondée sur la dynamique temporelle faciale. Son application aux sous-régions du visage permet une estimation robuste dans ces régions, tout en étant moins sensible aux variations entre divers ensembles de données. Pour cela, les filtres passe-bande utilisés pour calculer la phase locale par image constituent une défense contre les perturbations, et les informations sur le mouvement sont extraites à différentes fréquences pour être soumis à l'apprentissage par un réseau de neurones. Son principal avantage est sa capacité de généralisation.

Le deepfake purement vocal repose également sur l'AI. Il vise à créer un modèle capable de reproduire la voix par entraînement avec des enregistrements du locuteur légitime. Le modèle est ensuite prêt à générer une voix synthétique ressemblante en se fondant sur les motifs et les caractéristiques obtenus à partir de la voix réelle. Concernant la détection, A. Pianese et al. (2022) indiquent que, au cours de l'apprentissage, l'algorithme recherche les signatures biométriques des locuteurs, et, lors de sa mise en œuvre, il considère les enregistrements réels d'un locuteur donné et en recherche les signatures dans un enregistrement douteux.

Enfin la détection de contenu textuel généré par l'IA, ce qui est le cas du système ChatGPT, est plus délicate. Si un premier outil de détection GPTZero cherche des indices qu'un texte rédigé par ChatGPT sans marquage, il a des limites qui se traduisent notamment par des taux d'acceptation et de rejet à tort trop élevés.

 

 

Détection des "bots" sociaux

 

Une des grandes difficultés pour la détection des "bots" sociaux est qu'ils sont de plus en plus élaboré, pour rendre floue la frontière comportementale entre le "bot" et l'humain. Ils sont capables de trouver des informations sur l'Internet et dans des bases de données, pour copier le comportement humain : activités, profil, messages et conversation en direct, etc., et notamment de rechercher des personnes influentes et des contenus intéressants, à l'aide d'indices de popularité et de mots-clés. Suite à la détermination d'un contenu approprié, un "bot" social est alors en mesure d'apporter des réponses en langage naturel avec l'IA.

La communauté scientifique est déjà avancée dans la conception de méthodes capables de détecter automatiquement les "bots" sociaux ou, en tout cas, de permettre la distinction entre un humain et un "bot". Diverses approches pour la détection des "bots" sociaux sont décrites dans la littérature scientifique. E. Ferrara et al. (2016), en proposent trois. L'une se fonde sur l'étude des liens des utilisateurs légitimes en ayant recours au graphe du "botnet social". L'autre s'appuie sur une plateforme sociale d'essai de Turing ayant une capacité d'évaluation des nuances d'ordre conversationnel et des anomalies. La dernière repose sur des caractéristiques de plusieurs classes : réseau, utilisateurs, amis, temporalité, contenu et sentiment. Après que L. Alvisi et al. (2013) avaient souligné le besoin de techniques de détection complémentaires, il a paru utile d'envisager la combinaison d'approches multiples du fait que les "bots" sociaux évoluent avec l'IA. Des efforts de recherches pluridisciplinaires sont donc attendus dans ce sens.

 

 

Conclusion

 

Alors que nous sommes dépouillés de nos données, parfois à notre insu, et qu'il nous est proposé un monde terne au travers de métavers, les deepfakes et la désinformation sont en mesure de ruiner la confiance dans la réalité médiatisée et de conduire au futur "dystopique" d'une société dans laquelle les citoyens ne disposeraient plus de l'exercice de leur libre-arbitre.

Pour répondre aux défis alarmants d'un monde où les sources d'information sont multiples et décentralisées, susceptibles de diffusion rapide en masse, il ressort que plusieurs approches sont attendues visant à atténuer la menace que représente les deepfakes et leur diffusion. La détection s'impose par l'usage de méthodes complémentaires, tout comme le traitement des fausses informations et la détermination de leur provenance par le recours à un marquage robuste ou à une technique blockchain. Il en est de même pour l'atténuation de leur diffusion en masse, en agissant conjointement contre les "bots" sociaux.

Si la multiplication des détecteurs est apte à neutraliser les deepfakes, la courte exposition du contenu en ligne avant de disparaître aurait malgré tout un impact, au moins psychologique. En conséquence, ni les technologies, ni les recherches à ce propos ne suffiraient sans être accompagnées d'initiatives législatives et règlementaires, de veille fondée sur différentes sources, d'experts en nombre suffisant, et surtout de sensibilisation des gouvernants, des journalistes et des citoyens, pour les amener à agir utilement en connaissance. Il va de soi que nous sommes tous concernés et que l'Homme doit en effet être éduqué pour lui garantir le maintien dans son humanité.

Dans l'immédiat, les plateformes de médias sociaux comme Facebook et Twitter ont ​​d'ores et déjà banni la diffusion de deepfakes, les entreprises informent leurs personnels sur la menace en mettant en œuvre des procédures de sécurité adaptés pour contrer la cybercriminalité et en particulier les tentatives d'escroquerie, et certains États préparent des projets de loi. C'est le cas de la France avec l'adoption par le Sénat le 4 juillet 2023 de deux  amendements visant à encadrer les deepfakes, en les inscrivant dans un projet de loi visant à sécuriser et à réguler l’espace numérique.

 

 

Références

 

Adobe. 2016.  Voco "Photoshop-for-voice" causes concern, Archive BBC, 7 nov. 2016.


Alvisi L  et al. 2013.  The evolution of sybil defense via social networks,  Proc. 2013 IEEE Symposium on Security and Privacy, 382–396.


Ferrara E et al. 2016.  The rise of social bots,  Communications of the ACM, 59(7), 95-106.


Ciftci UA et al. 2020. FakeCatcher : Detection of Synthetic Portrait Videos using Biological Signals,  IEEE Transactions on Pattern Analysis and Machine Intelligence.


Guinier D. 2016.  Réseaux et "bots" sociaux : du meilleur attendu au pire à craindre. Expertises, 417, 331-335.


Guinier D. 2017. MacronLeaks et autres cyberattaques, et diffusion de fausses informations, Expertises, 426, 262-268.


Guinier D. 2019.  Réseaux sociaux : Paradoxe et convergence technologique, Expertises, 444, 111-114.


Pianese A et al. 2022 Deepfake audio detection by speaker verification, arxiv, 28.

 

Prashnani E, et al. 2022.  Generalizable deepfake detection with phase-based motion analysis.


Thies J et al. 2016. Face2Face : Real-time face capture and reenactment of RGB Videosn Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2387-2395.

 

Vidéos de démonstration;

https://www.youtube.com/watch?v=VQgYPv8tb6A https://www.youtube.com /watch?v=mfdxREbGSGU

 

 

L'Edito

Traduire, c'est relier

 

Le Prix Maurice-Betz 2023 de traduction a été remis samedi 7 octobre à Colmar à Antonin Bechler, professeur de langue et littérature japonaises à l’Université de Strasbourg, traducteur du grand écrivain Kenzaburô Ôé, Prix Nobel de littérature en 1994.

 

Le Maire de Colmar, parrain et partenaire de la cérémonie, et le Consul général du Japon étaient présents. La manifestation prenait place dans le cadre du festival régional de traduction «D’une langue vers l’autre ».

En ces temps géopolitiquement troublés, il est important de valoriser la traduction. Car la traduction ouvre les horizons géographiques et culturels, elle relie les humains aux ancrages si différents, elle honore des figures universelles de la pensée et de la littérature. La traduction enrichit la polyphonie du monde.

 

Le Colmarien Maurice Betz (1898-1946, photo ci-dessus), écrivain et traducteur (de Rainer Maria Rilke, Thomas Mann, Friedrich Nietzsche), passeur entre les langues française et allemande en des périodes pourtant conflictuelles, est un symbole précieux pour notre région. Alors que le Goethe Institut a décidé de fermer son antenne strasbourgeoise, nous avons à veiller à l’ouverture rhénane et européenne de l’Alsace.

Le Prix Maurice-Betz de l’Académie d’Alsace existe depuis 1957 et a distingué des dizaines d’écrivains, poètes, traducteurs. Au-delà des remises de diplômes et des moments de convivialité qui les accompagnent, c’est un travail en profondeur qui s’accomplit, dans le meilleur des traditions humanistes d’ouverture et de rayonnement.

 

Bernard Reumaux
Président de l’Académie d’Alsace

 

Invitation à l’Agora du 19 novembre 2019

 

Version imprimable | Plan du site
© Académie des Sciences, Lettres et Arts d'Alsace