Alors que des indices – ou plutôt des erreurs – permettent de repérer les deepfakes, cela devient de plus en plus compliqué avec les IA génératives comme Midjourney ou Dall-E, capables de créer des images très réalistes, comme on a pu le voir avec le Pape en doudoune blanche. Face aux difficultés des humains et des machines à détecter ces faux contenus, une autre méthode existe : le tatouage numérique. Explications.
Le tatouage numérique, une nouveauté pour les deepfakes
Lu par un détecteur, un programme informatique, ce tatouage peut être fragile ou robuste. Dans le premier cas, il se dégrade lorsque le contenu auquel il est intégré a été modifié. Il permet ainsi de savoir qu’une image, une vidéo ou un audio ont été modifiés. Dans le second, le tatouage est un moyen de retrouver l’origine du contenu ou son propriétaire. Autrement dit, même si un contenu a été transformé, il sera toujours possible de savoir qui a créé l’original.
« Il y a un renouveau. Depuis quelques temps, des gens cherchent à revitaliser le domaine du tatouage, à le repenser comme il y a dix ans pour de nouvelles fonctionnalités et, entre autres, protéger des deepfakes », indique Jean-Luc Dugelay.
« Ces filigranes peuvent survivre au post-traitement ; cependant, ils sont assez fragiles en matière de modification : si vous modifiez l’image, le filigrane se casse », a expliqué Nasir Memon, professeur d’informatique et d’ingénierie à l’Université de New York. « Si la caméra elle-même produit une image plus sensible à la falsification, tout ajustement sera détecté avec une forte probabilité », a-t-il ajouté.
Une méthode efficace, mais problématique
Là est toute la différence avec l’approche passive, consistant à essayer de détecter qu’un contenu a été modifié en l’observant, afin de trouver des erreurs de fabrication.
« Quand vous créez un deepfake, aussi bien audio que vidéo, vous avez encore des erreurs plus ou moins visibles. Et, même si elles ne sont pas visibles par l’humain, la machine peut les détecter. Mais on voit de plus en plus que cela ne suffit pas : les humains n’arrivent plus à détecter les erreurs et ça devient de plus en dur pour les machines », alerte Jean-Luc Dugelay.
Un détecteur adapté à une personne donnée
Comme l’explique Jean-Luc Dugelay, le but n’est pas d’avoir un détecteur universel ou de savoir si une vidéo est fausse ou pas, mais plutôt de se demander s’il s’agit, par exemple, d’une vraie vidéo ou d’un deepfake d’Emmanuel Macron. « Pour rendre la détection moins difficile, on va se spécialiser sur des personnalités particulières, donc on aura un détecteur adapté pour une personne donnée », indique le professeur de sécurité informatique.
Avec cette approche, Eurecom et l’Ircam affirment qu’il est possible d’obtenir un détecteur efficace, même face à des générateurs de deepfakes encore non répertoriés. Chacun ayant ses défauts, il peut être plus facile de détecter un contenu truqué si on a déjà été confronté à des vidéos créées à l’aide de ce dernier. Mais, si les deepfakes sont déjà difficiles à repérer, ils le sont encore plus si le générateur est inconnu. Reste à voir si le tatouage numérique et ces futurs détecteurs seront efficaces « dans un monde où l’on sait que l’audio, les vidéos ou les images peuvent inclure des choses qui n’existent pas », comme l’indique Jean-Luc Dugelay.