Interviews Diffusé le

La Russie et la guerre de l’opinion : de l’influence à l’ingérence

Avec l’invasion de l’Ukraine, la guerre de l'information bat son plein. Les Russes sont passés maîtres dans l’art de l’influence, grâce à des agences de diffusion de propagande sur Internet, ou à l'IRA. Le Kremlin cherche à déstabiliser les démocraties occidentales. C'est ce qui s'est passé lors de l’élection de Donald Trump comme l'a révélé l'affaire d'ingérence des Kremlin Papers, s'appuyant sur des campagnes de désinformation ou des cyberattaques. Les usines à bots russes, ou trolls, tournent toujours à plein régime pour semer le doute au sein du débat public et de l'opinion : que ça soit sur l'OTAN, les vaccins, la légitimités des politiciens, ou les élections nationales. Éclairage de David Chavalarias, mathématicien (CNRS) et auteur de « Toxic data: comment les réseaux manipulent nos opinions »

Rediffusé à l’occasion de la Museum Week 2022, #freedomMW.

Réalisation : Marie Brière de la Hosseraye

Production : Universcience

Année de production : 2022

Durée : 20min09

Accessibilité : sous-titres français

La Russie et la guerre de l’opinion : de l’influence à l’ingérence

Ce qu'il faut bien voir, c'est que le rapport qualité-prix de la guerre informationnelle est extrêmement bon par rapport à une guerre classique. Pour le prix d'une bombe, vous embauchez 100 personnes pendant un an. Le Kremlin a des organismes qui sont dédiés à ça, avec l'agence de l'IRA, l'Agence de recherche internet c'est plusieurs centaines de personnes qui travaillent à ça 24 heures sur 24. Mon travail, notamment quand je m'intéresse aux réseaux sociaux consiste à reconstruire les groupes sociaux, c'est-à-dire trouver l'importance des différents partis politiques par exemple, comment ils vont s'articuler entre eux, comment ils vont se faire circuler des messages mais aussi avoir une réflexion théorique sur l'impact des infrastructures numériques, notamment toutes les algorithmes de recommandations que l'on a en ligne sur twitter, facebook, etc sur la circulation d'informations au sein de ces groupes-là. Et donc tout de suite, on va aussi vers la question de la manipulation d'informations, c'est-à-dire qu'il y a des acteurs qui sont d'ailleurs soit français, soit étrangers, qui interviennent sur ces réseaux-là pour influencer cette circulation d'informations et aussi diffuser des fausses informations. Il y a une guerre de l'information ou une stratégie d'influence en ligne qui est opérée par plusieurs États. La Russie est passée un petit peu maître dans cet art, et la Russie, donc dès 2013, a développé ses forces numérique notamment avec une agence qui s'appelle l'Agence de la recherche internet qui en fait est une agence avec des salariés qui interviennent sur les différents réseaux sociaux pour influencer l'opinion et mettre à l'agenda des questions qui sont dans l'intérêt de la Russie. Donc il y a une guerre de l'opinion, une guerre de l'information qui se fait même en temps de paix, par des pays comme la Russie, qui ont intérêt en fait à acquérir du pouvoir géo-stratégique affaiblir les démocraties qui sont leur principales opposantes, elles, en tant que dictatures, et donc depuis 2013, il y a des armées de ce qu'on appelle "troll", donc des gens qui vont se déployer sur les réseaux sociaux numériques pour créer de la polémique. Parfois ils sont automatisés avec l'intelligence artificielle, et l'objectif de tout ça, donc c'est de pouvoir agir sur l'espace informationnel d'un pays pour, par exemple, démobiliser des populations pour éviter, par exemple, que l'on soit trop enclin à partir en guerre à soutenir l’Ukraine, ou au contraire, essayer de faire la bataille d'opinion en disant, finalement, l’Ukraine, la Russie, c'est un peu pareil et c'est aussi la faute de l’Ukraine, c'est aussi la faute de l’Otan etc. Il y a plusieurs catégories d'actions qui sont faites sur les réseaux sociaux. D'un côté du spectre, il y a tout ce qui est désinformation, c'est-à-dire diffusion de fausses informations qui ont pour objectif de créer de la confusion. Donc ça a été beaucoup utilisé en 2017 pour essayer de déstabiliser la campagne électorale, faire gagner des candidats qui seraient favorables à la Russie. Donc à l'époque, il y avait François Fillon, qui après a eu des postes en Russie, et Marine le Pen qui avait un emprunt en Russie. Et là par exemple, on l'a tout à fait vu en Ukraine. Donc la fausse information, c'était que des nazis... et on va dénazifier, ou un faux Ukrainien dont le profil a été entièrement fabriqué qui se présentait comme étant de l'aviation ukrainienne et qui diffusait beaucoup de messages négatifs sur l'Ukraine qui était corrompue etc. Sa photo de profil avait été générée entièrement par intelligence artificielle et même un profil de sa collaboratrice avait été généré par l'intelligence artificielle. L'autre partie, c'est des campagnes basées sur le piratage numérique. Par exemple, les #MacronLeaks ou ce qui s'est passé aux États-Unis avec Hillary Clinton. Donc on pirate les serveurs informatiques d'un parti et on met à disposition à un moment-clé un ensemble de documents dont on fait croire qu'ils contiennent des choses compromettantes. Donc les #MacronLeaks, c'étaient 48h avant le deuxième tour. On a dit : "Voilà,il y a des problèmes, arrêtez de voter Macron". Et l'autre chose, c'est une campagne d'influence de l'opinion qui est un petit peu plus insidieuse. C'est-à-dire on crée des faux comptes ou on crée des relais au sein de la population qui vont diffuser des opinions qui ne seront pas forcément vraies ou fausses mais qui seront plutôt des opinions qui seront orientées, elles vont être biaisées dans le sens d'un candidat ou d'une cause politique. Et c'est de montrer que voilà, les Ukrainiens aussi ont été méchants, ils ont aussi éventuellement bombardé le Donbass à un moment donné etc. et que donc, il ne faut pas prendre parti, c'est pas notre guerre... Il y a toute une rhétorique comme ça, L'astroturfing, c'est la fabrication d'une foule factice pour que des citoyens adhèrent à une cause. Ce qu'il faut savoir, c'est que c'est un mécanisme psychologique. Quand vous ne savez pas quelque chose, que vous vous posez des questions, vous regardez autour de vous et vous vous demandez : Qu'est-ce qu'en pensent les autres. Par exemple, maintenant c'est très facile de démultiplier une présence en ligne en créant des faux comptes et en leur donnant toute la chair qui accompagnera une vraie personne. Une image synthétiques fabriquée entièrement par intelligence artificielle. Donc qu'on ne trouve nulle part et donc qui paraît originale. il y a des algorithmes qui s'appellent maintenant GPT. Il y a le 2, le 3, on arrive au 4. Ces algorithmes sont capables de créer des textes dans un style donné, c'est-à-dire dans le style de la propagande russe, dans le style de la propagande ou du discours la République en marche, ou du parti socialiste etc. et après d'opérer automatiquement des comptes Twitter. Donc vous pouvez donner à la machine 100 ou 1000 comptes Twitter en demandant pour chaque compte Twitter d'avoir un style particulier mais une orientation particulière idéologique et tous ces comptes-là vont aller et interagir en ligne avec des vrais êtres humains. Ces robots-là sont très rapides, ils travaillent 24 heures sur 24, ils peuvent générer autant de textes qu'ils veulent et ils peuvent aussi faire de la veille en réagissant sur des mots clés. Typiquement, il y a des mots clés qui sont très précis, qui donnent tout de suite la couleur d'une intervention et on peut programmer ces robots pour qu'ils aillent poster des commentaires dès qu' il y a un mot-clé, par exemple si vous dites les Ukrainiens sont malheureux etc., tout de suite vous allez avoir des robots qui vont arriver et qui vont dire : mais non, c'est la faute aussi des Russes etc . Donc ça, c'est des choses qui maintenant sont vraiment à portée technologique du premier État venu même du premier acteur venu, et donc on va créer tout un ensemble de faux comptes qui vont faire en sorte que quand les vrais citoyens vont être en ligne, ils vont avoir l'impression d'une population autour d'eux qui soutient le Kremlin contre l’Ukraine et ils vont se dire que peut-être, s'il y a autant de monde qui soutient le Kremlin contre l’Ukraine, c'est qu'il doit y avoir anguille sous roche, alors qu'en fait, tous ces comptes-là sont pilotés de manière complètement centralisée par les agences de propagande russe. Les États comme la Russie préparent le terrain en amont de leur agression. D'ailleurs il faut savoir qu'il n'y a pas de distinction entre guerre et paix pour un État comme la Russie. Il est tout le temps en guerre sauf qu'il y a des moments où c'est une guerre chaude et les moments où c'est une guerre informationnelle, froide, ou avec cyber renseignement. Donc le principal outil, c'est la subversion. C'est un de ses plus gros budgets. ça veut dire déployer des faux sites d'information des télés de propagande. On parle de Russia Today et Sputnik. Pour l'invasion en Ukraine, il y a des choses qui s'activent maintenant, qui étaient là depuis très longtemps. Vous allez voir un compte, vous voyez qu'il est là depuis 4 - 5 ans, vous ne vous imaginez pas qu'il a été créée juste pour l'opération. Ça s'achète, des comptes qui ont une certaine ancienneté sur Twitter ou Facebook. Toutes ces choses-là sont préparées très en avant. Il y a un certain nombre de sites, quand vous allez les voir, ça fait aucun doute que ce sont des sites montés de toute pièce. Pour après, au bon moment, changer leurs lignes éditoriales et soutenir une agression comme la guerre en Ukraine. On a vu un regain de propagande pro-Kremlin, des discours anti-Otan, anti-Europe ou qui légitimaient l'intervention. Le Kremlin a des organismes qui sont dédiés à ça. Avec l'Ira, l'Agence de recherche internet, c'est plusieurs centaines de personnes qui travaillent à ça 24 heures sur 24. Ce qu'il faut bien voir, c'est que le rapport qualité/prix de la guerre informationnelle est extrêmement bon par rapport à une guerre classique. Pour le prix d'une bombe, vous embauchez 100 personnes pendant un an. C'est un très très bon investissement et un pari pour l'avenir. Cela a très très bien marché aux États-Unis. On le voit, Trump a été élu, mais en plus, après, le pays a fait une longue descente vers la division et la décohésion sociale. Un des premiers faits d'armes vraiment documenté de cette Agence de recherche internet et notamment de cette nouvelle stratégie du Kremlin pour affaiblir les démocraties, c'est l'élection américaine de 2016. avec l'accession au pouvoir de Donald Trump. Il faut savoir que dès janvier 2016, Vladimir Poutine a réuni ses agences de renseignement, ses agents d'espionnage et ses principaux ministres. Officiellement, c'était pour parler de la Moldavie, mais il y a eu des fuites qui s'appellent maintenant les Kremlin peppers, qui ont été révélées par The Guardian, qui expliquent qu'en fait il s'agissait de programmer une attaque informationnelle sur les États-Unis de manière à les déstabiliser à travers l'élection de 2016. Ils mentionnaient toute une panoplie de stratégies : piratage des infrastructures informatiques, influence des médias et de l'opinion et ils mentionnaient explicitement Trump comme le candidat à soutenir parce qu'il était identifié comme quelqu'un d'instable, impulsif et facilement manipulable par le Kremlin. Donc c'est effectivement ce qui s'est passé. Les serveurs de parti démocrate ont été piratés, un peu à la façon des Macrons Leaks. Les choses ont été mises en ligne. Sur les réseaux sociaux, Donald Trump a été mis en avant. Ils ont utilisé la publicité ciblée pour passer les publicités défavorables à Hillary Clinton, ils ont créé à peu près 130 manifestations, l'une d'entre elles a été organisée à l'occasion de l'inauguration d'une bibliothèque dans un centre islamique. Il y avait deux pages Facebook, l'une qui était les patriotes et donc contre la diffusion de la culture musulmane aux États-Unis, l'autre qui s'appelait United muslim of America qui défendait la culture musulmane aux États-Unis, ces deux pages Facebook ont appelé le même jour à faire un événement au moment de l'ouverture pour protester, l'une pour protéger la culture islamique et l'autre pour protester contre l'ouverture de ce genre de centre, et en fait les deux pages Facebook étaient administrées par des membres de l' Agence de recherche internet depuis Saint Pétersbourg donc ils ne se sont effectivement pas rendus sur place mais sur place, il y eu des citoyens américains qui ont répondu à l'appel et donc de chaque côté, quelques dizaines de manifestants plus une rumeur d'attentat à la bombe donc le FBI mobilisé. Il est estimé qu'ils ont organisé, comme ça, à peu près 130 événements en deux ans, en amont des élections américaines. L'élection diffusait aussi par ailleurs un certain nombre de messages qui ont été vus par plus de la moitié des votants américains. Ça fait une intervention, au final, assez massive. Le phénomène a été utilisé en France déjà en 2017. On l'a observé, toujours, l'identité n'est pas très claire, mais vu les pratiques, c'est quasiment sûr que les trolls du Kremlin étaient impliqués et puis ça a été beaucoup utilisé, on l'a vu pendant la pandémie de Covid 19, une utilisation massive des réseaux, de manière à forger de nouvelles communautés en ligne notamment la communauté antivax autour de Florian Philippot qui n'est pas tous les antivax mais une partie des antivax les plus radicaux. a probablement bénéficié d'un petit coup de pouce de la part du Kremlin parce que c'était à leur avantage de créer du dissensus dans la population française et de faire circuler tout un tas de fausses informations à propos du vaccin, de ses conséquences, du gouvernement, etc. Donc on a vu, sur cinq ans, mais surtout sur cette période-là de la pandémie de nouvelles communautés, méga communautés en ligne se former avec vraiment un concentré de fausses informations et c'est les mêmes communautés qui maintenant aujourd'hui, relaient la propagande du Kremlin. Il y a vraiment une proximité très proche. En gros, il y a un cœur de quelques centaines de personnes qui donc agitent, animent plusieurs milliers mais il y a un cœur de quelques centaines de personnes qui sont les mêmes qui interviennent sur la crise Covid, sur la crise Kremlin, sur la crise Guadeloupe, sur la crise corse. Vous avez une espèce de spécialisation dans l'agitation sociale C'est toujours très difficile d'identifier ces campagnes astroturfing. La première raison, c'est que la plupart des grandes plateformes ont leurs données qui sont fermées, c'est-à-dire que Twitter, Facebook, Google ont accès par exemple à la géolocalisation des comptes, ils savent où ils ont été activés mais ce ne sont pas des données qui sont rendues publiques. Donc en général, ce sont les plateformes elles-mêmes qui font le ménage et à nous de croire qu'elles le font bien, donc on a assez peu de prise sur... et d'identifier précisément les personnes. Ceci dit, il y a des techniques détournées. Par exemple, nous en 2017, on avait analysé sur Twitter une campagne qui était une campagne hostile à Emmanuel Macron dans l'entre-deux-tours, à base de hashtag du genre #stop Macron, #jamais Macron, #Macron le pion qui ressortent d'ailleurs encore aujourd'hui. Ces hashtag, initialement, étaient vraiment développés par le Rassemblement national, Les Républicains - à l'époque c'était Front national- donc des citoyens qui avaient droit de vote et c'était leur liberté d'expression. Sauf que, ce dont on s'est rendu compte, c'est que dans l'entre-deux tours, une grande partie de ces messages, en analysant les métadonnées de ces messages, on s'est rendu compte qu'une grande partie avait été émise par des comptes qui n'étaient pas sur le territoire français, qui étaient à priori sur le territoire américain, et on a pu croiser ça avec des prises de paroles que l'on a vues sur un forum d'extrême droite américain, 4chan où il y avait des internautes anonymes qui annonçaient qu'ils allaient faire cette campagne d'influence. Donc là, on a typiquement une campagne astroturfing où des gens qui sont hors du territoire - il y a aussi eu des robots, plusieurs dizaines de milliers de robots, d'après des études - sont venus sur le territoire numérique français dans l'entre-deux tours, pour relayer et amplifier la propagande anti-Macron de manière à faire gagner Marine le Pen. Donc là, on a des métriques assez objectifs, par contre de savoir si c'était effectivement l'extrême droite américaine ou des Russes qui se faisaient passer pour l'extrême droite américaine, tout ça, c'est un petit peu flou. A priori c'est plutôt une convergence d'intérêts. Il y a eu tous les acteurs en même temps, l'extrême droite américaine, russes, l'extrême droite française, qui ont travaillé pour amplifier cette propagande anti Macron. A quoi peut servir cette polarisation ? Déjà, quand vous avez une population divisée donc avec beaucoup de mécontentement social, ça veut dire que le gouvernement aura beaucoup moins de latitude pour intervenir sur des scènes extérieures, notamment par exemple prendre des décisions pour la guerre en Ukraine. Si on est occupé à apaiser les mécontentements en interne, on est moins disponible pour l'externe. Mais ensuite il y a un but politique vraiment à long terme qui est tout simplement d'arriver à mettre au pouvoir des personnalités qui vont elles, être favorables au régime de Pékin, au régime de Moscou, etc. Donc là, il y a des manipulations qui visent à favoriser au moment des élections, un candidat par rapport à un autre. Là on retrouve les Macron Leaks, l'astroturfing, etc. La Russie n'est pas le seul pays à avoir fait ce genre de chose, mais ce qu'on peut dire, c'est que, apparemment, en ce moment, c'est celle qui est le plus en pointe dans ce genre de pratiques. Ce qu'il faut bien comprendre, c'est que là, il y a une stratégie de créer la division, de renforcer les identités des différents groupes sociaux, qu'ils soient politiques ou sur des valeurs de manière à les rendre de moins en moins compatibles. Si vous fragmentez l'électorat en amont d'une élection, en forçant des interactions hostiles entre les différents candidats, eh bien vous avez plusieurs candidats qui ne voudront pas se rallier, donc les écarts entre les candidats qui restent vont être assez faibles, donc manipulables. Tous les autres vont être à peu près autour de 15 16 %, etc. Donc vous avez plus de chances pour qu'un candidat populiste arrive à passer à cette barre de 15 -16% . Ensuite, comme vous avez fragmenté la population et que les campagnes actuellement sont extrêmement virulentes, extrêmement hostiles, donc une fois que vous avez réussi à ce qu'il y ait un candidat populiste au 2e tour, là, l'hostilité entre les candidats du 1er tour était telle que à part les soutiens de base les autres vont certainement préférer s'abstenir. C'est la stratégie qui a été utilisée pour Trump C'est la suppression d''électeurs, c'est-à-à dire amener les électeurs à ne pas aller voter, à dire, en gros, il sont tous pareils, que ce soit Le Pen, Macron, Mélenchon, etc., c'est la même chose, et ça, ça augmente la probabilité pour qu'un candidat qui soit populiste ou à tendance illibérale remporte le 2e tour. Donc le pari, c'est qu'au bout de 3, 4 fois, ça va finir par arriver et c'est ce qui arrive dans certains pays et en général les candidats qui passent avec ce genre de profil, eh bien ils restent. On l'a vu avec Poutine, on l'a vu avec Orban. Orban est un pro de la démocratie illibérale et il est là depuis maintenant trois mandats et il a supprimé toutes les libertés de la presse, c'est un des pays les plus corrompus. Donc là vous installez des régimes illibéraux, voire des dictatures Il y a des mesures qu'on peut prendre au niveau individuel. Typiquement, quand vous êtes sur des réseaux sociaux ce que vous voyez en général dans votre fil d'actualité, c'est pas du tout vous qui choisissez, c'est la plateforme qui choisit en fonction de vos connexions. Donc plus vous avez de connexions et moins ces connexions sont contrôlées, plus la plateforme va pouvoir piocher un petit peu ce qui l'arrange là-dedans. Donc un premier réflexe, c'est déjà d'avoir un réseau social avec des connexions de personnes que l'on connaît. Ne pas accepter par exemple de vous connecter avec quelqu'un dont vous ne connaissez rien du tout, c'est juste la plateforme qui a dit "ça match" en terme de profil. Parce qu'il y a plein de faux profils, justement, qui se construisent en essayant de matcher les profils de quelqu'un d'autre pour après, être suggérés. Ça c'est des premiers réflexes, et après il y a plein d'autres réflexes à avoir, sur évidemment remonter aux sources des informations, repérer les sophismes, c'est-à-dire ces tournures de phrases qui sont logiquement fausses mais qui sont là pour vous tromper. Donc il y a tout un ensemble de mesures, que je détaille dans ce livre, mais qui permet de nous prévenir de ça et après, il y a évidemment peut-être aussi, de manière autant voire plus importante, les mesures collectives qui sont liées à la question de "comment on régule la circulation d'information dans les espaces numériques. Pour le moment, cette circulation de l'information est uniquement entre les mains des grands opérateurs la big tech, de manière très opaque. Tous les algorithmes sont fermés. Or c'est ça qui vraiment régule tout ce que l'on voit. On le voit très bien par exemple dans la guerre en Ukraine, on voit ce qui se passe en Russie, ils ont tout de suite verrouillé toutes les plateformes y compris les plateformes privées. Tiktok, comme c'est opéré par les Chinois, ils ont coopéré avec le gouvernement russe. Donc on voit bien que ces infrastructures numériques, c'est le nerf de la guerre pour manipuler ou forger les opinions des populations. Il n'y a qu'eux qui ont accès à certaines informations. Nous, ce que l'on observe c'est que souvent les comptes sont supprimés trop tard. C'est-à-dire qu'il y a des comptes qui sont actifs pendant plusieurs jours et qui sont supprimées au bout de plusieurs jours ou plusieurs mois. Et cela suffit, dans cet intervalle de temps, pour déjà commencer à diffuser tout un tas de fausses informations, et donc, si on y pense, en fait, c'est un travail titanesque Facebook, c'est 2,8 milliards d'utilisateurs, comment voulez-vous, qu'une entreprise privée, toute seule, arrive à réguler l'information sur 2 8 milliards d'utilisateurs ? Si vous le faites sérieusement, ça coûte très cher. Or ces des plateformes n'ont pas du tout envie de perdre de l'argent là-dessus, donc elles optimisent, c'est notamment les révélations de Frances Haugen qui est lanceuse d'alerte de Facebook a bien montré, que, en gros, sur les terrains où ils ont un risque juridique, ils le font à peu près sérieusement. Sur d'autres terrains, ils ne le font pas sérieusement voire pas du tout. donc c'est un petit peu à la tête du client ou du risque juridique, et donc on ne peut pas faire confiance aux grandes plateformes pour agir sur ce genre de terrain de manière fiable. Normalement, il devrait y avoir un droit de regard citoyen soit à travers les États, soit à travers des régulateurs indépendants que nous n'avons absolument pas actuellement.

Réalisation : Marie Brière de la Hosseraye

Production : Universcience

Année de production : 2022

Durée : 20min09

Accessibilité : sous-titres français