Selon Mohamed Dahmane, l’IA peut aider à la détection de la manipulation d’images par l’IA
Lors de sa présentation intitulée « Contrer le deepfake : IA contre IA », présentée lors de la Journée Techno du CRIM sur la Désinformation à l’ère de l’intelligence artificielle, Mohamed Dahmane n’a pas hésité à prendre le taureau par les cornes. Selon lui en effet, pour détecter la manipulation des images grâce aux techniques de l’intelligence artificielle, rien de mieux que d’avoir recours à l’intelligence artificielle. Combattre le feu par le feu est de la plus grande efficacité. Retour sur la conférence de Mohamed Dahmane, chercheur au CRIM, pour en savoir plus sur les manières de lutter contre le deepfake grâce à l’intelligence artificielle.
Le premier constat de Mohamed Dahmane est qu’il est difficile pour un être humain de détecter le faux du vrai en matière d’images modifiées aussi appelées deepfakes. « Les chances de détection d’un deepfake par un être humain est de 57%. Cela signifie que 43% des individus se font manipuler », détaille-t-il. La modification des images ne date cependant pas d’hier. Une exposition au MET à New York montrait que la manipulation photographique remonte à l’invention-même de la technologie. « L’artifice fait partie intégrante du monde de l’art », rappelle Mohamed Dahmane.
Depuis l’arrivée du numérique, notamment avec l’apparition de programmes informatiques comme Adobe Pro, il est toutefois de plus en plus facile de modifier des images. Les techniques sont diverses et variées, allant du filtrage d’images au ralentissement de la vitesse de lecture de la vidéo, en passant par le Face2Face. « Depuis 2016, grâce à FaceSwap, il est possible de changer les visages dans une image pour créer un deepfake. En 2018, avec Glow et ProGAN, on peut aussi jouer sur la couleur de la peau, la texture du cheveu, etc. », détaille Mohamed Dahmane.
Afin de rendre plus compréhensible la création de deepfakes, Mohamed Dahmane revient sur ses mécanismes. « Deux paires d’autoencodeurs sont utilisés pour la compréhension des images. Entre les deux, on projette l’image dans un espace lattent ou caché. Il s’agit de décoder puis de reproduire l’image proche de celle de l’entrée. Si l’on entre les images par paires, on peut faire un embrayage », explique le chercheur. Autre possibilité pour créer des deepfakes : les Generative Adversial Networks appelés GAN. « Il s’agit ici d’optimiser la différence de pixels. Parce que les GAN alimentent le bruit de l’image, celle-ci est plus raffinée qu’avec les autoencodeurs », décrit-il.
L’époque contemporaine a vu se multiplier les images contrefaites : c’est l’ère du deepfake. « Ces images font du tort à la société et aux individus », affirme Mohamed Dahmane. Du point de vue de la société, les images modifiées sont des défis pour la démocratie dans la mesure où elles ont la capacité d’influencer le résultat des élections, par exemple. Du point de vue des individus, ces images sont des moyens de pression, de diffamation voire d’extorsion. Lors de procès judiciaires par exemple, il n’est pas rare qu’une image modifiée soit illégalement présentée comme preuve d’innocence. « Nous sommes à une époque où l’intelligence artificielle érode la preuve médiatique », confirme Mohamed Dahmane.
Si les méthodes traditionnelles de détection du vrai et du faux ne fonctionne plus en ce qui concerne les deepfakes, c’est parce que la qualité de l’image produite est grande. Il existe toutefois des méthodes d’avant-garde reposant sur l’intelligence artificielle qui permettent d’identifier ces deepfakes. « Il faut investir dans les médias forensics », déclare Mohamed Dahmane. Le but d’un tel investissement ? Rendre à la vidéo sa capacité de soutien aux décisions opérationnelles, maintenir un haut niveau de maîtrise des nouvelles techniques avancées de forgeages et protéger les données sensibles des organisations des menaces internes comme externes. Des programmes ont ainsi été mis en place : le DARPA aux États-Unis et le IDEeS au Canada.
Afin d’identifier si une image a été manipulée, il existe plusieurs méthodes. Dans un premier temps, il convient de catégoriser les manipulations visuelles : le copy move, le face swapping, l’inpainting, le splicing, etc. Deux approches existent en termes de détection de manipulations : la protection proactive et la détection passive. La protection proactive consiste à analyser la signature numérique de l’image ainsi que son watermark d’authentification. « S’il y a un résidu, c’est que l’image a été manipulée », explique Mohamed Dahmane. La détection passive consiste à analyser les délimitations des objets présents sur l’image pour voir s’il y a des incohérences. Partant, le CRIM emploie un système de contrôle des images qui allie différentes méthodes pour davantage d’efficacité.
Cet article sera intégré au Guide de l’industrie: : INTELLIGENCE ARTIFICIELLE, un ouvrage de référence unique pour comprendre les rouages de l’industrie québécoise de l’intelligence artificielle : ses entreprises, ses personnalités, les grands centres de recherche, les processus, les marchés, les considérations économiques, éthiques, ses forces et les défis qui l’animent. Il est possible de commander, de contribuer ou de soutenir cette publication en > cliquant ici <. |