Apparus dans la dernière décennie, les deepfakes sont susceptibles de jouer un rôle majeur de désinformation, d’autant plus qu’ils peuvent être très facilement créés désormais
1- Qu’est-ce qu’un deepfake ?
C’est la contraction de deux termes anglais, deep learning et fake. Le premier désigne le système d’apprentissage par l’intelligence artificielle, le second veut dire « faux ». Il s’agit d’une méthode permettant de créer de faux contenus audios ou vidéos en se fondant sur l’intelligence artificielle. On peut, par exemple, remplacer le visage d’une personne par celui d’une autre, reproduire une voix, etc.
2- Quand est-ce apparu ?
La technologie aurait été mise au point en 2014 par un chercheur de Google. Certains deepfakes sont devenus viraux à la fin de la dernière décennie, notamment lorsque certaines actrices hollywoodiennes ont été « intégrées » à des scènes d’un film pornographique. Dès 2018, l’acteur et humoriste Jordan Peele alertait sur les dangers de cette technologie, en créant une fausse vidéo de Barack Obama.
3- Comment cela fonctionne-t-il ?
Pour créer un deepfake le plus parfaite possible, il faut collecter le maximum de clichés possibles du visage d’une personne, pour « remplacer » celui d’une autre. Pendant longtemps, ces technologies ont été réservées à des technophiles aguerris. Désormais, des applications grand public permettent de créer un deepfake assez simplement.
4- Pourquoi est-ce dangereux ?
D’abord parce qu’elles peuvent ruiner une réputation. En particulier quand elles sont utilisées pour « intégrer » une personne à une vidéo porno, par exemple. Mais elles peuvent aussi servir à faire passer un message politique. Et dans leur version audio, à « dupliquer » la voix d’une personne pour ordonner entre autres un transfert d’argent, ce qui est déjà arrivé.
Pour autant, les deepfakes ne sont pas toujours utilisées à des fins malhonnêtes : les réseaux sociaux ont pullulé de ces vidéos mettant en scène des personnes lambdas dans des films mythiques, par exemple. Plus litigieux, on se souvient de Donald Trump annonçant la « fin » du Sida en 2019 : fake, puisque créé par Solidarité Sida pour sensibiliser à sa cause.
5- Comment les repérer ?
Hélas, il n’est pas toujours évident de détecter un deepfake. C’est même parfois impossible à l’œil nu. Mais certaines d’entre elles peinent à reproduire un clignement naturel des yeux. D’autres font apparaitre une différence de luminosité anormale entre deux éléments.
Problème : les techniques évoluent à toute vitesse, plus rapidement que les logiciels capables de le détecter. D’où la nécessité dans ce domaine comme dans d’autres, de développer un esprit critique et de ne jamais considérer une vidéo comme une preuve absolue, pas plus qu’une image. Et s’il subsiste un doute que l’on ne parvient pas à abolir, il ne faut pas hésiter à saisir un service de fact-checking que des plus en plus de médias proposent.
Retrouvez tous les articles de notre série sur l’esprit critique ici.
Jean Berthelot de La Glétais
Vous devez être connecté pour poster un commentaire.