Deux chercheurs ont récemment développé une application d'IA qui serait capable de détecter un deepfake.
C'est dans un article publié dans Actes de l'Académie national de sciences que Matyas Boháček et Hany Farid ont décrit la conception de leur application d'intelligence artificielle ayant la capacité de détecter si une vidéo est réelle ou ce n'est qu'un deepfake.
Attention aux conséquences faux médias !
La technologie Deepfake gagne chaque jour en complexité. Dans certains cas, il est quasiment impossible de différencier une fausse vidéo d'une séquence authentique. Il est toujours nécessaire de faire attention aux répercussions quand on manie une technologie de cette ampleur.
Rappelez-vous ce qui s'est passé entre la Russie et l'Ukraine. Une vidéo ddepfake de Zelensky a été publiée et a contribué à alimenter la guerre entre les deux pays.
Face à l'évolution constante de cette technologie, les scientifiques ont cherché une solution pour identifier les fausses vidéos virales. Mais aussi afin d'éviter les rumeurs et faire en sorte les vidéos comme celle du président ukrainien soient vite identifiées. Et l'intelligence artificielle serait la réponse à cette question.
Afin d'éviter qu'un tel désastre ne se reproduise, les chercheurs ont en effet commencé à envisager quelle technologie d'IA qui pourrait avoir la capacité de différencier les vidéos authentiques d'un deepfake.
La solution contre le deepfake est un système d'IA d'apprentissage en profondeur
Selon Farid et Boháček, les deux chercheurs de l'Université de Californie à Berkley et du Gymnasium de Johannes Kepler, chaque personne a un trait unique. La façon dont une personne bouge fait partie de l'un de ses caractéristiques propres. Ils ont également noté que certains points, dont les traits du visage, ou encore les marques corporelles, sont spécifiques à chaque individu.
« Zelensky a l'habitude de lever le sourcil lorsqu'il lève sa main gauche. Et c'est grâce à ces informations qu'on a pu créer et programmer un système d'apprentissage automatique qui serait en mesure d'étudier les mouvements physiques d'une personne. Mais pour ce faire, l'application a besoin d'analyser plusieurs vidéos du sujet en action », affirment Farid et Boháček.
Plus le temps passe, plus le système d'intelligence artificiel créé par les deux chercheurs s'améliore. Au fil du temps, la technologie d'IA contre le deepfake de Farid et de Boháček commence petit à petit à identifier les petites attitudes ne pouvant pas être détectées par l'être humain. Il s'agit de actions qui pourraient être uniques à chaque sujet d'étude.
Boháček et Farid ont ensuite lancé de nombreux tests sur de nombreuses vidéos deepfake. Leur objectif n'était autre que de pouvoir départager deux types de vidéos d'une personne (authentique et deepfake) grâce à leur système basé sur l'IA. Après avoir réalisé des tests à maintes reprises, le résultat final est prometteur. Le système qu'ils ont mis au point arrivait à détecter la fausse vidéo deepfake, avec un taux de réussite de 100 %. Ils ont également analysé la vidéo de Zelensky pour conclure qu'il s'agit d'une fausse vidéo générée par la technologie deepfake.
- Partager l'article :