Deepfake : Entre fantastique et dangereux

Deepfake est un type d’intelligence artificielle qui est utilisé pour créer des vidéos fausses mais convaincantes, à tel point que vous ne pouvez pas faire la différence entre le réel et le fictif.

Ce terme a été inventé par la conjonction de la technologie d’apprentissage profond et du contenu faux ou des fausses nouvelles, qui, en anglais et dans toute autre langue, a été généralisé sous le nom de Fake News. Deepfake décrit donc à la fois la technologie et le faux contenu qui en résulte.

Le Deep Learning est une forme d’intelligence artificielle qui repose sur l’apprentissage par l’exemple. Au lieu d’enseigner au logiciel une liste de règles pour résoudre un problème, on lui donne un modèle où il peut évaluer des exemples et une petite quantité d’instructions pour le modifier. De cette manière, les algorithmes sont capables d’apprendre sans intervention humaine.

Comment le contenu deepfake est créé

Le contenu Deepfake est créé en utilisant deux algorithmes d’intelligence artificielle appelés Generator et Discriminator. Les deux sont en concurrence, le générateur créant le faux contenu médiatique et demandant au discriminateur d’identifier s’il est réel ou artificiel. Ensemble, le générateur et le discriminateur forment ce que l’on appelle le réseau adversarial génératif (GAN). Chaque fois que le discriminateur identifie avec précision le contenu comme faux, il fournit au générateur des informations sur la manière d’améliorer le prochain deepfake. Comme le générateur s’améliore dans la création de faux clips vidéo, le discriminateur améliore également sa capacité à les détecter. En parallèle et par rétroaction, à mesure que le discriminateur s’améliore dans la détection des faux, le générateur s’améliore dans leur création.

L’origine de cette technologie commence par la recherche d’une solution au problème du doublage dans le monde du cinéma. L’application de l’IA (intelligence artificielle) au doublage a été mise au point par Flawless, une société britannique cofondée par le réalisateur Scott Mann, après qu’un certain nombre de scènes de films ont été gravement handicapées par de mauvaises traductions.

Mais le développement de deepfake ne s’est pas limité au doublage, il est allé plus loin. Elle s’est penchée sur la manière de capturer les expressions faciales et les mouvements d’un acteur dans une scène, ainsi que ceux d’une personne prononçant les mêmes paroles mais dans une autre langue. Ceux-ci sont ensuite combinés pour créer un modèle 3D qui fusionne le visage et la tête de l’acteur avec les mouvements des lèvres du traducteur.

Le résultat est une personne qui parle et gesticule comme elle ne l’a jamais fait.

Le côté obscur de deepfake

Jusqu’à récemment, il était difficile de modifier le contenu vidéo sans en révéler les défauts. Cependant, comme les « deepfakes » sont créés par l’intelligence artificielle, aucune compétence particulière n’est nécessaire pour créer une fausse vidéo réaliste. Aujourd’hui, il existe des programmes et des applications de deepfake gratuits qui permettent de transformer simplement le visage d’une personne en celui d’une autre dans une scène vidéo. Le logiciel identifie les points clés du visage de la personne et utilise l’apprentissage automatique pour capturer sa gestuelle, créant ainsi des vidéos synthétiques crédibles et réalistes.

L’application WOMBO, par exemple, qui peut être installée sur n’importe quel smartphone, peut émuler la vidéo d’une personne qui chante à l’aide d’une simple photographie. Vous n’avez pas besoin d’être un expert, il suffit de prendre un bon gros plan du visage de quelqu’un et de le télécharger. Ensuite, vous choisissez une chanson et voilà, la photographie prend vie et génère une vidéo d’eux gesticulant et chantant. C’est très amusant et inoffensif, mais il est désormais possible de transformer une photo en vidéo.

La manipulation de vidéos à l’aide d’une intelligence artificielle est controversée. Si, comme nous l’avons vu, elle peut être utilisée pour améliorer le cinéma, il est également possible de l’utiliser pour diffuser de fausses informations sur les réseaux sociaux, à des fins néfastes. En fait, l’une des premières applications réelles des deepfakes a été de créer de la pornographie. Un autre usage répandu est celui de la politique, où des présidents sont apparus en train de prononcer un discours qu’ils n’ont jamais fait.

Selon les experts, les deepfakes deviendront beaucoup plus précis à mesure que la technologie se développera et pourraient introduire des menaces plus graves pour la société, liées à l’ingérence dans les élections, aux tensions politiques et aux activités criminelles.

Toutefois, les logiciels de détection des « deepfakes », également alimentés par l’IA, deviendront beaucoup plus efficaces et la bataille entre le réel et le fictif devrait être équilibrée.

Quelles sont les alternatives à suivre ?

L’avancement des technologies ne peut être arrêté et/ou évité, même si leur lancement et leur diffusion peuvent être retardés. Tôt ou tard, la technologie fera son chemin. Par conséquent, la lutte entre le réel et le virtuel se poursuivra.

Des lois et des règlements seront probablement créés pour réglementer l’utilisation abusive des « deepfakes ». De leur côté, les plateformes technologiques telles que YouTube, Facebook, Instagram, Twitter, Google, Tik Tok, etc. devront prendre des mesures plus rigoureuses pour limiter la propagation des deepfakes malveillants ou offensants.

Je pense que c’est l’un des postes que j’ai eu le plus de mal à fermer. En général, les technologies, méthodes et outils présentés apportent une fin prometteuse et positive à notre évolution. Cependant, cette merveilleuse technologie, créée à des fins nobles, fait pencher la balance du côté négatif. En raison du danger que représentent les fake news, on craint leurs impacts et leurs conséquences. C’est pourquoi il est bon de faire passer le message et de recommander d’évaluer les sources avant de supposer que quelque chose est vrai.

Pour faire face aux deepfakes, dans ce cas plus que jamais, nous devons être préparés.