user generated content

Pour les journalistes, les « contenus générés par les utilisateurs » peuvent être de précieuses sources d’information. À condition qu’ils soient fiables. Vincent Claveau, chercheur au laboratoire IRISA du CNRS, explique comment le déterminer

« Ce que l’on appelle un “contenu généré par un utilisateur”, c’est un contenu qui se retrouve publié pour une audience large et généré par une personne qui ne revendique pas de statut particulier journaliste ou expert par exemple.

Pour s’appuyer sur ces contenus, les journalistes doivent évidemment déterminer s’ils sont fiables ou non. Il y a bien sûr, de leur côté, un savoir-faire qui va leur permettre de croiser les sources, de vérifier, etc.

Mais je vais répondre du point de vue de l’informaticien, en passant rapidement sur les grands classiques que sont, par exemple, les interviews écrites où l’on fait dire à quelqu’un ce qu’il n’a pas dit.

Car la nouveauté, c’est que des sources autrefois considérées comme des preuves ne le sont plus. Non seulement des photos, ce qui n’est pas récent, mais aussi des sons, des vidéos puisque l’on peut désormais manipuler des expressions du visage, faire prononcer des mots à n’importe qui… Et même générer des visages de façon totalement artificielle.

«Des techniques de plus en plus fines »

Il fallait autrefois des compétences de graphiste assez poussées ; désormais, c’est bien plus simple, grâce au deep learning qui ouvre la manipulation de l’information à n’importe qui.

Pour les journalistes qui ne sont pas spécialistes du sujet, comme pour le grand public, il est assez compliqué de trouver de bons outils. Il y a des plug-ins sur les moteurs de recherche qui permettent de déterminer si une image a subi des modifications, du montage, si elle n’a pas été publiée dans un autre contexte, etc.

Mais les nouvelles techniques de manipulation sont de plus en plus fines et difficiles à détecter, donc un journaliste qui a un doute ne doit pas hésiter à se tourner vers un spécialiste. Nous nous appuyons non seulement sur la technologie pour authentifier un contenu, mais nous prenons en compte d’autres indices, plus sociologiques : on peut évaluer si la personne tenant supposément un discours utilise son style langagier habituel, si les micro-expressions qui la caractérisent sur la prononciation de certains mots sont bien les siennes, etc. Tout cela est désormais automatisé et permet de faire face à l’immense flots de contenus, donc de bloquer des publications proposant des fake news. Et ainsi de déterminer si un journaliste, notamment, peut s’appuyer sur ce contenu ou pas. »

Retrouvez toutes les interviews de notre série sur l’esprit critique : lire ici.

Propos recueillis par
Jean Berthelot de La Glétais

 

Avec le soutien du ministère de la Culture

Newsletter Curieux !
Recevez chaque semaine la newsletter qui démêle le vrai du faux et aiguise votre curiosité !