Revenir au site

Comment l’UE peut-elle remporter la "bataille des récits"? - Grand entretien
avec Jean-Baptiste Jeangène Vilmer 

| Maria POPCZYK, Fellow de l'Institut Open Diplomacy

24 juin 2022

Le sujet des manipulations de l’information comme menace pour nos démocraties est réapparu dans le débat public dans le contexte de l’agression russe contre l’Ukraine. Le 27 février dernier, les ministres des affaires étrangères de l’Union européenne ont donné leur feu vert à l’interdiction de deux médias russes proches du Kremlin, RT et Sputnik. Ces médias n’ont plus le droit de diffuser de contenus dans l’UE depuis le 2 mars, en raison du rôle « déterminant » qu’ils ont joué dans l’agression russe contre l’Ukraine.

Il y a encore cinq ans, Jean-Baptiste Jeangène Vilmer insistait, dans un article paru dans la Revue Défense Nationale, sur l’importance de « prendre conscience du continuum entre actions militaires et guerre informationnelle ». Actuellement, les autorités françaises reconnaissent que le champ informationnel est un nouvel espace de conflictualité. En effet, le CEMA Thierry Burkhard observe, dans sa vision stratégique, qu’« une forme de guerre avant la guerre se déroule dans tous les domaines : diplomatique, informationnel, militaire, économique, juridique, technologique, industriel et culturel. ».

Le Haut Représentant de l’UE pour les affaires étrangères et la politique de sécurité Josep Borrell donne également beaucoup d’importance à la confrontation croissante dans le champ informationnel. Il parlait d’abord de l’existence d’une « bataille de récits » pour qualifier les tentatives chinoises de discréditer l’UE au début de la pandémie du Covid-19. Au moment de l’interdiction de RT et Sputnik, M. Borrell disait que « la manipulation de l'information et la désinformation systématiques par le Kremlin sont utilisées comme un outil opérationnel dans son agression contre l'Ukraine. Il s'agit également d'une menace importante et directe pour l'ordre et la sécurité publics de l'Union. ».La lutte contre les manipulations de l’information est d’ailleurs prise en compte dans la Boussole stratégique, livre blanc européen adopté le 21 mars dernier, qui annonce l’élaboration d’« une boîte à outils spécifique destinée à lutter contre les activités de manipulation de l'information et d'ingérence menées depuis l'étranger ».

Pour commencer, je vous propose que l’on discute de la définition du phénomène. Comment définissez-vous la « manipulation de l’information » ? Pourquoi préférez-vous ce terme à celui de « désinformation », employé notamment par les institutions européennes ?

Désinformation n’est pas un si mauvais terme. Comme nous l’expliquons dans le rapport de 2018, il s’agissait du moins mauvais des termes existants. Cependant, c’est un terme réducteur car la « désinformation » désigne des informations intentionnellement fausses : elle renvoie donc à un problème de vérité. Or, dans les faits, les informations problématiques ne sont pas forcément fausses. Elles peuvent être exagérées, distordues, volontairement altérées, présentées hors de leur contexte, des statistiques manipulées, etc. Ces manœuvres sont d’autant plus efficaces lorsqu’elles impliquent une part de vérité. Le problème qui se pose n’est pas binaire, il ne s’agit pas de savoir si l’information est vraie ou fausse, mais si elle est manipulée. Ainsi, le terme « manipulation de l’information » nous a semblé être le plus inclusif.

Dans le rapport de 2018, nous avons opté pour une définition assez restrictive de la manipulation de l’information, à savoir la diffusion d’informations fausses ou biaisées à des fins politiques hostiles. A l’exclusion, donc, de la publicité par exemple, qui peut aussi manipuler les informations mais à des fins différentes.

Depuis la parution de notre rapport sur Les manipulations de l’information en 2018, le terme s’est assez largement répandu, et pas seulement en France, mais aussi en anglais (information manipulation) ailleurs en Europe, en Amérique du Nord et à Singapour, par exemple – et avec ce terme une certaine manière d’approcher le sujet qui a contribué à l’influence française dans ce champ.

Néanmoins, dans la pratique, on peut tout à fait employer le terme « désinformation » pour désigner la même chose, à condition toutefois de bien le définir.

Comment la manipulation de l’information s’articule-t-elle avec la notion de « guerre » ou « menace hybride » ?

Il ne faut pas parler de « guerres », mais plutôt de « menaces hybrides ». L’intérêt de l’hybridité, c’est le plus souvent de rester sous le seuil de la guerre. Les attaques cyber, informationnelles, les actions politiques, psychologiques etc. restent « sous le seuil » d’un conflit armé. Les manipulations de l’information appartiennent à la grande famille que sont les menaces hybrides ; il s’agit d’un des leviers de l’hybridité.

Les menaces hybrides correspondent à l’ensemble des actions prises par les Etats et acteurs privés qui articulent des moyens cinétiques et non-cinétiques dans le but de générer de l’ambiguïté – il s’agit ici d’un critère important de la définition. Si l’attaque hybride est bien faite, on ne sait pas tout de suite qu’on est attaqué. C’est ce qu’on appelle en anglais la « deniability », la possibilité pour l’adversaire de ne pas être clairement impliqué. Quelques exemples : les « petits hommes verts » envoyés par la Russie en Ukraine en 2014, ou encore des opérations clandestines sur les réseaux sociaux. L’intérêt d’une attaque « hybride », c’est de se dissimuler pour retarder la réponse.

L’attaqué ne sait pas sur qui faire pression, ni si la réponse peut être symétrique, ni s’il existe un risque d’escalade. On perd du temps, donc c’est du temps qui est gagné pour l’adversaire, pour susciter du doute, de la défiance, de la discorde au sein de la population.

Dans ces attaques hybrides, qui sont multiples, il y a en général un volet informationnel. Il existe aussi des attaques purement cyber, par exemple le piratage d’un serveur pour voler des données. Toutefois, si par la suite ces données sont diffusées, éventuellement après avoir été manipulées, dans le but de nuire à quelqu’un (dans un « kompromat » à la russe, comme c’était le cas par exemple des Democratic National Committee Leaks de 2016, ou encore les Macron Leaks de 2017), alors c’est une opération plus complète, de type « hack and leak ».

Il existe aussi des attaques purement informationnelles, comme la diffusion de fausses informations dans la presse papier. Toutefois, c’est de moins en moins le cas, les manipulations de l’information se produisant le plus souvent sur les réseaux sociaux.

Enfin, d’autres leviers peuvent être mobilisés dans le cadre des menaces hybrides : notamment l’instrumentalisation des réfugiés, l’utilisation du droit comme arme de guerre (lawfare), ou encore des opérations de guerre psychologique (par exemple les violations très fréquentes de l’ADIZ taïwanaise par les avions militaires chinois, dont l’objectif est de maintenir une pression constante et éventuellement de susciter un sentiment de vulnérabilité voire de découragement).

Parler de « menaces » hybrides implique toutefois de se placer du point de vue de l’attaqué, ce que nous sommes lorsque Moscou et Pékin, notamment, déploient ces méthodes contre les démocraties libérales. Mais plutôt que de nous définir constamment comme des victimes, nous pourrions aussi prendre conscience qu’un certain nombre de ces stratégies hybrides peuvent être retournées contre l’agresseur, et donc utilisées par nous, dans les limites permises par les valeurs démocratiques et libérales que nous partageons. L’hybridité n’est pas et ne doit pas être l’apanage des autres, elle est un mode d’action partagé, qui offre certaines opportunités. En ce qui me concerne (c’est une position personnelle), je pense que nous devrions l’assumer.

À partir de quel moment ne parle-t-on plus de « menaces hybrides » mais d’un conflit conventionnel ? Pour la Russie, par exemple, une « menace hybride », entendue comme une opération utilisant des moyens militaires et non-militaires, se confond avec la notion classique de guerre.

Pour les Russes, il y a en effet un continuum entre la guerre et la paix.

Mais le problème est plus large : la guerre elle-même reste un objet vague, qui ne fait pas l’objet d’une définition consensuelle. C’est d’ailleurs pourquoi le droit a abandonné cette notion il y a longtemps et parle plutôt de « conflit armé » international ou non-international, avec des critères relativement précis mais qui suscitent malgré tout des débats dans le monde académique. En sciences sociales, il y a une multitude de définitions de la guerre, la plupart trop larges ou trop étroites, ou arbitraires comme l’est la définition quantitative selon laquelle on pourrait parler de guerre à partir d’un certain seuil de morts au combat.

En réalité, le mot « guerre » relève essentiellement de la communication politique : on l’utilise pour signifier que le moment est grave, risque de durer et de causer des pertes. Les mêmes responsables politiques, pour désigner le même conflit, utilisent tantôt « guerre » pour cette raison et tantôt « intervention », qui repose sur une analogie médicale, lorsqu’ils veulent insister sur la bonne intention (de sauver), le geste précis et rapide. Tout ça pour dire qu’il est relativement facile de « se confondre avec la notion classique de guerre » parce que cette notion est floue.

Cela étant dit, l’hybride c’est comme son nom l’indique l’articulation, la combinaison de deux choses, de moyens cinétiques (« la notion classique de guerre ») et de moyens non-cinétiques (cyber, économiques, judiciaires, informationnels, etc.). Ce qui fait sa spécificité est l’intention de cette combinaison : générer de l’ambiguïté dans le but de déstabiliser l’adversaire. Donc la définition est assez claire. Mais cela n’empêche pas la plupart des gens de réduire la « guerre hybride » à sa seule moitié non-cinétique ou utilisant cette expression comme un synonyme d’opérations cyber et informationnelles. En réalité, cette moitié non-cinétique de la guerre hybride correspond plutôt à la notion de « guerre politique », qui est surtout développée aux Etats-Unis (political warfare) mais aussi ailleurs, notamment en Chine avec la notion des « Trois guerres ». Je me permets ici de renvoyer à notre rapport sur Les Opérations d’influence chinoises.

De quels outils la France s’est-elle dotée pour protéger ses citoyens de la manipulation de l’information ? Comment est-on équipé en matière de LMI par rapport à d’autres Etats membres de l’UE ?

Pendant longtemps, par rapport à certains pays (notamment les Etats baltes, la Suède, la Finlande et le Royaume-Uni), la France a été en retard en matière de lutte contre les manipulations de l’information, mais en avance pour légiférer avec la loi de 2018 (Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information). Rétrospectivement, je reste convaincu que cette loi était une bonne initiative, mais le fait est que son bilan est assez mitigé, car ce texte est difficilement applicable.

Dans notre rapport CAPS-IRSEM de 2018, nous proposions la création d’une structure permanente, comme cela se faisait déjà dans d’autres pays (recommandation n°9, p. 174-176). Il a fallu attendre l’été 2021 pour que ce soit fait, avec la création de Viginum, le service de vigilance et de protection contre les ingérences numériques étrangères, dont l’une des missions principales est de prévenir les ingérences numériques étrangères en période électorale.

Ces réponses étatiques sont nécessaires mais insuffisantes, parce qu’elles pourront toujours être discréditées voire détournées par ceux qui répandent des fausses nouvelles et des théories conspirationnistes (du type « ministère de la Vérité »). Le plus important, le plus efficace, sont les initiatives prises par la société civile. L’approche française de la lutte contre les manipulations de l’information consiste d’ailleurs à être très orientée vers la société civile et à ne mettre les réponses étatiques qu’en seconde ligne. Beaucoup de médias français ont mis en place leurs propres cellules de fact-checking : on peut citer Fake news – Infox de Radio France, le Décodex du Monde, Checknews de Libération, Factuel de l’AFP, etc. Par ailleurs, des organismes comme le Centre de Liaison de l'Enseignement et des Médias d'Information (CLEMI) font de l’éducation aux médias.

Les plateformes ont également fait des progrès ces dernières années. Le problème, c’est qu’elles ne sont pas suffisamment transparentes lorsqu’elles font des « takedowns », c’est-à-dire lorsqu’elles détectent et suppriment des comptes impliqués dans des opérations de manipulation, sans partager les données brutes et les raisons précises qui les conduisent, par exemple, à attribuer ces opérations à tel ou tel acteur. Lorsque Facebook dit avoir démantelé un réseau de faux comptes lié au renseignement militaire russe par exemple, la plateforme ne dit pas comment ils sont parvenus à cette conclusion : les chercheurs et/ou les journalistes doivent soit les croire sur parole, soit développer leurs propres outils d’attribution, ce qu’en général ils ne peuvent pas faire puisque Facebook ne leur donne pas accès à toutes les données. Donc il reste des progrès à faire dans ce domaine même s’il faut souligner que, par rapport à il y a quelques années (le tournant a eu lieu aux alentours de 2018), les plateformes semblent avoir pris conscience du problème et elles mettent des moyens considérables pour le combattre.

En somme, ce que l’« on » fait pour lutter contre les manipulations de l’information ne se limite pas à l’État ; il s’agit d’un travail collectif. Si vous me demandez si la population est plus sensibilisée à cette menace, je répondrais que oui. La vérification de faits (fact-checking) est désormais très répandue et c’est une bonne chose.

Il faut toutefois y apporter deux nuances. D’une part, les études montrent qu’un nombre important de personnes continuent de diffuser des informations qu’elles savent fausses, simplement parce qu’elles sont conformes à leurs préférences, ou qu’elles les trouvent amusantes, par exemple. Et qu’une information fausse est beaucoup plus virale, c’est-à-dire est diffusée beaucoup plus rapidement et largement, qu’une information vraie, car la plupart du temps elle est aussi plus divertissante, au contraire de la vérification de faits qui est souvent perçue comme ennuyante. L’enjeu est donc de rendre la défense aussi amusante que l’attaque, et en cela il ne faut pas sous-estimer l’efficacité de l’humour dans la communication stratégique, qui est en général sous-utilisé par les Etats et les organisations internationales.

D’autre part, il y a un parallélisme des audiences. Ceux qui lisent, croient et diffusent des informations manipulées ne sont en général pas les mêmes que ceux qui lisent, croient et diffusent les vérifications de faits. En d’autres termes, il y a a priori peu de recoupement entre l’audience de Sputnik et celle du Decodex du Monde, par exemple. Donc l’enjeu est de faire en sorte que les diffuseurs d’informations manipulées soient aussi les destinataires des contre-mesures mises en place. Là aussi, le fait de rendre ces contre-mesures plus divertissantes pourrait permettre de réduire ce phénomène de parallélisme des audiences en faisant se croiser les courbes.

Un exemple de bonne pratique dans ce domaine : en 2019, Audrey Tang, ministre taïwanaise du numérique, a révélé que chaque ministère était prêt à répondre à la désinformation en soixante minutes en créant un mème de « clarification » si drôle qu'il deviendrait viral : « cela agit comme une inoculation, comme un vaccin mèmetique ». Autrement dit, chaque ministère, dans son domaine, anticipe les manipulations de l’information susceptibles de le viser et prépare des réponses qui sont non seulement très réactives (déployables en moins d’une heure) mais aussi très drôles, pour accroître leur viralité. C’est exactement la bonne approche.

S’agissant des solutions apportées au niveau européen, on peut citer le groupe de travail sur l’amélioration de la résilience et la lutte contre les menaces hybrides (ERCHT) au sein du Conseil de l’UE, le groupe de travail sur la communication stratégique et l’analyse de l’information (division StratCom) du Service européen d’action extérieure, et notamment la East StratCom Task Force, ou encore le site internet EUvsDISINFO qui recense certains exemples de désinformation. Quelle est leur valeur ajoutée par rapport aux instruments nationaux ?

Je dirais que les outils européens ont trois grands avantages : le partage d’informations, la dimension internationale de la réponse et la force de frappe.

Premièrement, le partage entre États est très rare dans ce domaine. Partager ses expériences dans le champ informationnel c’est, comme dans le domaine cyber, partager ses vulnérabilités. Il est donc important d’avoir des enceintes comme le groupe de travail sur l’amélioration de la résilience et la lutte contre les menaces hybrides (ERCHT) au sein du Conseil de l’UE. Les réunions de ce groupe permettent aux Etats membres de discuter régulièrement du sujet et de faire des retours d’expérience en matière de lutte contre les manipulations de l’information.

Deuxièmement, la manipulation de l’information reste rarement limitée à un territoire ; les attaques informationnelles sont souvent transnationales, parce que l’attaquant tire les ficelles depuis l’étranger en passant par des relais locaux, ou qu’il vise nos intérêts via des pays tiers, comme le Kremlin le fait au Sahel notamment. L’internationalisation est consubstantielle à la plupart de ces attaques, donc le niveau européen, et au-delà le niveau international (il existe aussi des fora transatlantiques et des dialogues réguliers avec des acteurs asiatiques et océaniques, notamment Singapour, Taïwan et l’Australie), sont requis.

Troisièmement, seuls, on ne peut pas faire grand-chose. Qu’il s’agisse de prendre des sanctions contre les attaquants identifiés, ou de faire pression sur des plateformes numériques, on est plus fort quand on le fait à vingt-sept plutôt que tous seuls – l’Union fait la force. D’où l’intérêt d’une boîte à outils européenne. La contrainte, c’est le temps qu’il faut pour la négocier, et la polarisation que peut susciter le fait de pointer du doigt tel ou tel acteur, notamment la Russie, la Chine et la Turquie. S’il est aujourd’hui relativement consensuel de dénoncer les actions du Kremlin, dans le contexte de la guerre en Ukraine qui a eu un effet clarificateur, ce n’était pas forcément le cas les années précédentes et cela s’est ressenti dans le soutien à la East StratCom Task Force par exemple, certains Etats ne se sentant pas concernés ou ne souhaitant pas afficher leur soutien à une activité qu’ils percevaient comme « anti-russe ».

Le même problème guettera les prochaines initiatives pour contrer les manipulations de l’information et les opérations d’influence d’origine chinoises, turques, et autres : si ces efforts sont « actor-oriented », c’est-à-dire focalisés sur un acteur en particulier, ils seront aussi polarisants, puisque des pays ne voudront pas apparaître comme « anti-chinois » ou « anti-turcs », et mettront donc en évidence des divisions européennes dont nos adversaires profiteront. Un autre problème est qu’on ne peut pas multiplier les « task forces » pays à l’infini, il y aura toujours de nouveaux acteurs, dont des acteurs non-étatiques (l’alt-right américaine, le mouvement QAnon, les conspirationnistes de tous bords, les extrêmes politiques nationaux, etc.).

C’est pourquoi je pense qu’il faut complètement réformer la StratCom de l’UE et, plutôt qu’avoir quelques « task forces » pays, créer une agence unique de lutte contre les manipulations de l’information et les ingérences étrangères, qui ne précise pas dans son nom « contre qui ». Il s’agit donc de contrer des pratiques, pas des acteurs, ce qui est doublement plus inclusif puisque la formulation est plus acceptable par tout le monde et qu’elle permet d’inclure toute nouvelle menace. Cela ne veut pas dire qu’il n’y aurait pas au sein de cette agence d’expertise pays : il en faut et on peut tout à fait avoir des équipes internes Russie, Chine, Turquie, Iran, Acteurs non-étatiques, etc. Car il faut des spécialistes qui parlent les langues et connaissent les acteurs. Mais le chapeau général serait « actor-agnostic » plutôt qu’« actor-oriented ». Ce serait à la fois plus ambitieux et plus efficace que ce que nous avons présentement.

Le 8 mars dernier, le Haut Représentant Josep Borrell a annoncé au Parlement européen qu’il proposerait un régime de sanctions contre la désinformation. Qu’en pensez-vous, sachant qu’il faudrait au préalable attribuer la désinformation – soit désigner publiquement l’acteur qui en est responsable ?

La proposition est trop vague pour susciter un commentaire précis. L’intention est bonne, il faut sanctionner lorsque c’est possible. La difficulté est moindre dans le cadre de manipulations de l’information que dans le cas des cyberattaques, qui sont plus difficilement attribuables (remonter à un ordinateur ne signifie pas remonter à l’individu derrière le clavier ni établir un lien entre cet individu et un État - beaucoup de hackers russes, par exemple, sont des proxys officieux du gouvernement qui dissimule ses liens avec eux). Dans le champ informationnel, lorsqu’il s’agit de « propagande blanche », c’est-à-dire lorsque les médias ou les réseaux diplomatiques sont mobilisés, lorsque la manipulation de l’information provient directement du porte-parole du ministère chinois des Affaires étrangères, par exemple, comme cela est fréquemment le cas, il n’y a pas de problème d’attribution, on sait très bien qui parle. C’est naturellement plus compliqué dans le cas d’opérations clandestines sur les réseaux sociaux, via des faux comptes, et cela renvoie au point précédent sur le fait que les plateformes ne partagent pas suffisamment de données brutes permettant d’avoir des certitudes quant à l’attribution de ces opérations.

Donc, pour résumer, sanctionner c’est bien, mais cela implique de pouvoir préalablement attribuer avec certitude, car il faut savoir qui sanctionner sans risquer de se tromper, et c’est là que la mise en œuvre concrète de cette intention louable pourrait être difficile.

Dans une pièce de doctrine publiée un mois après le début de l’agression russe contre l’Ukraine, M. Borrell remarque que pour que l’UE ait un plus grand impact dans le monde, l’ingrédient le plus important est de « façonner le récit ». Quelles recommandations feriez-vous à l’Union européenne pour justement façonner son récit ?

L’objectif est de construire une culture européenne commune, y compris dans le domaine de la défense. A cette fin, il faut faire mais aussi faire savoir, et c’est là je pense que l’UE a encore des progrès à faire. Par exemple, pendant la pandémie, l’UE a considérablement aidé la Serbie, beaucoup plus que la Chine, mais c’est pourtant Pékin qui a gagné la bataille des récits car sa campagne de communication était plus agressive (et les relais politiques locaux étaient puissants, puisque le président serbe lui-même a contribué à la diffusion des récits chinois). Résultat : aujourd’hui les sondages montrent que les Serbes sont convaincus que la Chine a fait davantage que l’UE pour les aider pendant la crise, ce qui est faux, et ils sont en général plutôt sinophiles et europhobes. C’est un exemple parmi d’autres qui montre que l’UE a beau faire beaucoup, y compris pour aider les pays tiers, elle n’est généralement pas très bonne pour faire savoir et valoriser ce qu’elle fait.

Bien entendu, l’UE sera d’autant plus forte pour faire savoir ce qu’elle fait qu’elle pourra s’appuyer sur une culture européenne commune, et c’est cela précisément qui est difficile à construire. Européaniser les populations passe par davantage d’enseignement de l’histoire européenne à l’école, davantage d’échanges entre Européens dans tous les secteurs de la société, et d’autres mesures concrètes, mais aussi par la promotion plus forte, y compris via des relais nationaux, des actions de l’UE, notamment à l’égard des pays tiers ou en concurrence avec d’autres puissances comme la Chine ou la Russie. Le récit européen se construira à travers des exemples concrets de réussite, pas seulement à l’intérieur, mais aussi à l’extérieur de l’UE.

Jean-Baptiste Jeangène Vilmer est directeur de l’IRSEM depuis 2016. Docteur en science politique et en philosophie, juriste, il a notamment été chargé de mission « Affaires transversales et sécurité » au Centre d’analyse, de prévision et de stratégie (CAPS) du ministère des Affaires étrangères, chercheur postdoctoral et enseignant à la faculté de droit de McGill University, Lecturer au département de War Studies du King’s College London, postgraduate fellow à Yale University et attaché à l’ambassade de France au Turkménistan. Honorary Ancien du Collège de défense de l’OTAN, il est aussi nonresident Senior Fellow du Europe Center de l’Atlantic Council, et enseigne à Sciences Po.

Auteur d’une vingtaine de livres, ses recherches portent sur les relations internationales et les nouvelles formes de conflictualité. Sur les menaces hybrides et les manipulations de l’information, il a publié plusieurs rapports : Les Manipulations de l’information (CAPS/IRSEM, 2018), The ‘Macron Leaks’ Operation (IRSEM/Atlantic Council, 2019), Information Defense (Atlantic Council, 2021), Effective State Practices Against Disinformation (European Centre of Excellence for Countering Hybrid Threats, 2021) et Les opérations d'influence chinoises (IRSEM, 2021).
 

Les propos tenus dans cet article n'engage pas la responsabilité de l'Institut Open Diplomacy mais uniquement celle de leurs auteurs.