Reportages Diffusé le

Tech & Check – Des scientifiques face aux fake news

Face à la désinformation sur les réseaux sociaux, journalistes et scientifiques s’allient pour trouver des parades. Ainsi, une équipe de chercheurs (Inria, CNRS, Ecole Polytechnique et universités UPMC, Rennes 1 et Lyon 1) participe, avec des journalistes (Les décodeurs) du journal Le Monde, au projet ContentCheck. Ioana Manolescu, directrice de recherche à l’Inria, nous explique l’importance du traitement massif et automatique des données, via des algorithmes, pour permettre la vérification des informations.

Réalisation : Alice Pouyat , Lydie Marlin

Production : Universcience

Année de production : 2017

Durée : 6min57

Accessibilité : sous-titres français

Tech & Check – Des scientifiques face aux fake news

"Fake news... ces fausses informations relayées à grande très échelle sur les réseaux sociaux, elles sont devenues une arme redoutable de manipulation de l'opinion, Facebook, avec ses 2 milliards d'abonnés est ainsi accusé par certains d'avoir contribué à l'élection de Trump" Fake news, intox, rumeurs, les fausses informations fleurissent sur le Net. En cause notamment les algorithmes de Google, de Facebook, et des réseaux sociaux. accusés de relayer ces fausses infos sur les fils d’actualité. Eux-mêmes disent chercher des solutions. En attendant, des scientifiques s’intéressent à la lutte contre la désinformation. Ce matin, une équipe de chercheurs de l’Inria, du CNRS, de Polytechnique… se rend au siège d’un grand quotidien. Tous participent au projet "Content Check" : ils développent des outils pour aider les journalistes à automatiser le Fact-Checking, la vérification des faits. « On leur fournit des outils qui font du traitement massif, qui permettent de faire très vite ce qui prendrait très longtemps à faire à la main si on le faisait objet par objet". Parmi ces outils en développement, un système qui repère automatiquement dans les discours politiques, des informations à vérifier, en proposant des éléments de réponse. Ou encore un logiciel qui interconnecte de grandes bases des données, Wikipedia, le registre du commerce…. « On va savoir que telle personne a été à l’école avec telle personne, qui aujourd’hui fait ci fait ça, etc, etc. Ca, c’est des méthodes qui aujourd’hui n’existent pas vraiment. C’est des trucs qui sont faits empiriquement dans des carnets, en faisant des recherches une par une. Alors que là, à terme, théoriquement, on sera capable de fusionner de grandes bases de données entre elles et donc d’aller très très loin, et très très vite dans l'investigation ». Un enjeu démocratique pour la coordinatrice du projet : « J’ai passé la première moitié de ma vie est Roumanie, et jusqu’à 14 ans dans le régime communiste où la diffusion de information était quasi inexistante, donc cela permet de mesurer l’importance de ce que le public puisse être informé de la façon dont la société est gérée, comprendre l’action de ses dirigeants ». D’autres scientifiques, eux, s’intéressent davantage aux images et aux photos-montages. C’est le cas de Vincent Claveau et du doctorant Cédric Maigrot, à Rennes. « Dès qu’il y a une actualité très très forte, ça peut être une actualité dramatique, comme des ouragans, des tremblements de terre, ou des élections politiques par exemple, cela génère énormément de rumeurs, de fausses informations". « Cette image est issue des Jeux Olympiques à Sotchi, où les salles de bain avaient la particularité d’avoir deux WC. Mais ce qui est plus intriguant ici, c’est la présence de ce tableau au-dessus des WC". De vraies toilettes, qui font alors le buzz : sur le net, Vladimir Poutine y apparaît soudain dans toutes les postures. Les informaticiens ont créé un moteur de recherche capable de mettre au jour rapidement ce genre de montage. Un algorithme bien entraîné débusque d’abord les images similaires qui circulent sur la toile. « Chaque pixel de l’image est envoyé dans des couches de neurones, qui vont faire un certain nombre d’opérations. On les entraine avec plein d’images de chats, en leur disant "ceci est un chat", plein d’images de bouteilles de coca-cola en leur disant "ceci est une bouteille de coca-cola" et petit à petit, il va apprendre à reconnaître ces objets » Le système repère aussi sur les clichés rencontrés, des points de force concordants. C’est le filtrage géométrique. Une fois que des images assez proches ont été trouvées, le moteur de recherche est alors capable de pointer des zones divergentes. « Du coup, à partir de là, l’utilisateur n’a plus de doute, puisque l’élément qui lui semblait suspect est prédit comme modifié par le système". Mais les scientifiques ont bien d’autres défis : « Est-ce que le texte et l’image racontent la même histoire ? Ça, ça nous pose des problèmes scientifiques assez compliqués, de description conjointe du texte et de l’image. Et il en va de même pour les autres indices, ceux qui sont issus du réseaux sociaux, est-ce qu’on est capable de caractériser le parcours de cette information, de sa source jusqu’à ce qu’elle nous atteigne. » La lutte contre les fausses informations, textes ou images, intéresse aussi le monde de l’enseignement. Au salon EducaTech où sont exposées des innovations technologiques en matière de pédagogie, on découvre InVid. Un plug-in d’authentification des vidéos, développé par plusieurs centres de recherche et médias européens. « C’est une vidéo qui a été postée sur Twitter et Facebook, qui a eu une audience assez considérable sur Facebook, via la page qui s’appelle SOS Racisme anti-Blanc. Ça donne le spectre politique dans lequel évolue ce genre de campagne de désinformation. La vidéo est censée accréditer l’idée qu’un migrant est en train de tabasser du personnel hospitalier en France." Le plug in va vérifier l’origine de cette vidéo, en la décomposant rapidement, et en cherchant des images similaires sur Google, Baidu et Yandex, les moteurs de recherche russes et chinois. On découvre ainsi que l’image a été utilisée un mois plus tôt, et que celui qu’on présente comme un migrant violent est en fait un ivrogne filmé dans un hôpital russe. « C’est vraiment de la désinformation low cost, c’est extrêmement fréquent sur les réseaux sociaux, c’est-à-dire de la dé-contextualisation d’images photos ou vidéos : on reprend une photo ancienne, on la refait passer dans le circuit, on change juste la légende. Ça arrive tous les jours pratiquement ». Tel un détective, InVid peut aussi repérer des anomalies dans un fichier numérique, par exemple, différents formats de compression. Ce qui peut laisser penser qu’un élément à été incrusté… C’est le cas de ce drapeau, brandi par des manifestants catalans, au moment du référendum. « Si on a plusieurs filtre qui dénotent une anomalie dans l’image, là par exemple une différence de fréquences entre le reste de l’image et une zone particulière, ça induit à penser qu’il y eu une manipulation…. Pour renforcer la foule catalane contre la police, la garde civile ». Déjà utilisé par plusieurs chaines de télévision, le plug-in inclut encore d’autres outils, comme une super loupe, et va continuer à se développer. « C’est un jeu du chat et de la souris, en permanence, car de nouvelles technologies sortent. Là, par exemple, il y a des projets d’expression faciale, d’apprendre la voix d’une personne à partir de 20 minutes de discours. Pour leur faire dire n’importe quoi. Ensuite, il suffit de mettre un bout de texte, d’appuyer sur un bouton et on a la voix d’Obama ou quelqu’un d’autre qui lit le texte. Si on mélange tout ça, on a des faux parfaits presque, en vidéo et en audio. Donc il faut que l’on trouve la parade pour voir si telle ou telle image a été modifiée." Bref, les fake news et la lutte contre les fake news n’ont pas fini de faire parler d’elles…

Réalisation : Alice Pouyat , Lydie Marlin

Production : Universcience

Année de production : 2017

Durée : 6min57

Accessibilité : sous-titres français