Les patrons de Facebook, Twitter et Google sont convoqués devant le Congrès américain, le 25 mars 2021, pour répondre aux questions de l’instance quant à la désinformation sur leurs plateformes respectives. Portée par une forte dynamique et des potentialités ravageuses, la désinformation fait l’objet de nombreuses attentions - Mark Zuckerberg a déjà été convoqué trois fois devant le Congrès, Sundar Pichai et Mark Dorsey, deux fois. Elle appelle à la recherche de capacités et de solutions pour s’en prémunir. En raison même de sa transversalité, de son évolution, et de ses multiples impacts, la désinformation reste un objet difficilement saisissable et analysable, nécessitant de la définir, pour ensuite la contrer.
Comprendre la désinformation pour être en mesure de la combattre
Souvent mal comprise ou confondue : définir la désinformation, afin de pouvoir la qualifier et la distinguer d'autres pratiques, est la première étape pour s’en protéger. Cette diffusion intentionnelle d’informations fausses ou trompeuses implique donc deux éléments cruciaux : une falsification et une diffusion.
La falsification se définit par la modification ou l’altération d’un fait, ou la dissimulation de l'émetteur, motivée par une volonté de tromper. Pourtant, la désinformation peut s’exercer à partir de faits exacts, en les dénaturant ou en écartant délibérément ceux qui viendraient affaiblir la thèse défendue - quand bien même il peut être difficile de placer le curseur entre un biais tolérable et un biais abusif.
La diffusion s’illustre, quant à elle, par l’action de propager des connaissances ou des idées parmi un large public, favorisée par le développement des technologies numériques. La diffusion peut être exercée par des propagateurs de bonne foi qui, manipulés, se font vecteurs de la désinformation. Cette dernière diffère de la mésinformation, qui désigne, elle, la propagation d’information erronée sans volonté de nuire. La désinformation ne recouvre pas non plus totalement la propagande - l’utilisation à outrance de l’information au sein d’une opinion publique pour lui faire admettre certaines idées ou doctrines, sans nécessairement falsification.
Ainsi, la désinformation doit être appréhendée dans son contexte. C’est le libre arbitre des sociétés qui constitue la cible privilégiée de la désinformation, c’est-à-dire l’opinion publique en mesure de peser sur des décisions politiques, économiques ou sociales. La désinformation vise à engendrer une réaction publique favorable aux intérêts de l’initiateur.
Les mécaniques de désinformation sont très différentes dans une démocratie libérale ou un régime autoritaire. Dans un régime démocratique, la désinformation peut viser à développer un mouvement de contestation, une dynamique de méfiance, fragiliser la légitimité d’une personne physique ou morale. Les heurts du Capitole, aux Etats-Unis, en janvier 2021, symbolisent très bien ce phénomène.
C’est quand elle est combinée à des « facteurs aggravants » que l’utilisation de la désinformation atteint son plein impact. Parmi ces facteurs aggravants, l’effritement de la confiance des populations envers « l’expertise des institutions » (qu'il s’agisse des journaux de référence ou des autorités politiques et scientifiques, etc.) permet d’accentuer un phénomène de « relativisme ». Le complotisme constitue un genre à part de la désinformation, qui contribue à fragiliser les opinions publiques.
Par ailleurs, les possibilités de médiatisation accrue permises par internet permettent de faire de chaque citoyen un acteur potentiel de la désinformation, qu'il la génère lui-même ou que, plus souvent, il en soit le relais, ce qui réduit fortement la capacité des autorités publiques à lutter contre la désinformation et à la prévenir. La réduction du coût de production et d'accès à l’information, qui fragilise le modèle économique des journaux de référence et limite leur capacité d’influence, constitue aussi un facteur aggravant à la désinformation.
La désinformation porte en elle une singularité. C’est la multiplicité de ses acteurs qui agissent pour des raisons principalement politiques, idéologiques ou financières : États, entreprises ou individus isolés, qui agissent pour leur propre compte, ou pour des commanditaires. La désinformation est avant tout asymétrique : elle permet dans des cas extrêmes à un individu agissant seul d’ébranler des institutions, voire des États. Elle est très accessible parce qu’elle est peu onéreuse et facile d’emploi. Elle est enfin « virale » de par son aptitude à se répandre très rapidement. Ces différents caractères rendent très complexes la lutte contre la désinformation.
La désinformation, une menace protéiforme
La lutte contre la désinformation, processus que de nombreux facteurs liés rendent complexe, constitue pourtant un enjeu crucial pour les démocraties. De par son caractère viral et son accès facile et rapide, la désinformation permet de rapidement ébranler les démocraties autour de la planète.
En premier lieu, la désinformation fragilise les processus électoraux au sein des sociétés démocratiques, où cette pratique peut avoir un impact sur l’opinion dans le but d’influencer le vote des citoyens. Les campagnes électorales américaines de 2016 ou françaises de 2017 n’ont ainsi pas été exemptes d’opérations ou de volontés de désinformation.
C’est ainsi la question de la fragilisation des « institutions », susceptible de susciter une perte de légitimité, qui se pose. La capacité d'un État à se défendre est particulièrement exposée à ce risque. En réduisant les certitudes, la désinformation peut contribuer à fragiliser les capacités de défense des États, aussi performantes soient-elles. Devant la commission de la Défense nationale et des forces armées de l’Assemblée nationale en juin 2020, le chef d’état-major de l’armée de Terre a même qualifié la désinformation d’« arme extrêmement puissante ». Et le chef d’état-major britannique, le Général Nick Carter, d’ajouter en septembre 2020 en présentant la révision à venir de la revue stratégique de Défense : « The pervasiveness of information and rapid technological development have changed the character of warfare and of politics. We now have new tools, techniques and tactics that can be used to undermine political and social cohesion, and the means to make the connection to an audience ever more rapidly. Information is now democratised. It’s available for everyone ». Cette appréhension, conjuguée à l’importance croissante de l'information au sein de nos sociétés, justifie la prise en compte croissante par les armées des risques de « conflits informationnels », et des menaces qu’ils sous-tendent.
Un dernier enjeu réside dans la maîtrise (et le degré de contrôle) de l’information. La Turquie a par exemple imposé à chaque média et réseau social de désigner un responsable au sein de son territoire. Or, la pertinence d’accentuer le contrôle de l’information pour lutter contre la désinformation n’est pas évidente. La législation prévoit déjà des outils : loi sur la presse et délit de fausse nouvelle, loi sur la liberté d’information, délit de manipulation de cours boursier, etc. Il apparaît alors inutile de compléter le droit par un nouveau dispositif dédié. Les outils de modération collaboratifs semblent d’ailleurs plutôt adaptés, comme l’initiative de Twitter « BirdWatch ». Cette fonctionnalité en cours de développement devrait permettre aux utilisateurs de recontextualiser des tweets publiés, et donc de contester, à l’appui de sources, la véracité des propos tenus. Ces outils permettent à la fois d’apporter une réaction immédiate à la désinformation (sans attendre une décision de justice après plusieurs mois) tout en conservant la liberté d’expression, et d’éviter les accusations de censure. Ces dernières, régulièrement portées par des acteurs malveillants ou extrémistes après des actions de déplateformage, peuvent alimenter le processus et nourrir l’impact de la désinformation.
Répondre aux défis de la désinformation : l’ambition européenne
Face aux enjeux et mécanismes complexes de la désinformation, la réponse se construit progressivement. L’Union européenne se veut en la matière un acteur déterminé.
En 2018, dans sa communication « Lutter contre la désinformation en ligne : une approche européenne », la Commission préconisait une série de bonnes pratiques et l’établissement de règles pour accroître la transparence et l’équité des plateformes numériques. Cette dynamique a été renforcée avec la publication en décembre 2020 de deux propositions législatives (le Digital Services Act et le Digital Market Act) et d’un ensemble de mesures afin de responsabiliser les plateformes quant aux pratiques de désinformation. Dans la même perspective, un débat a lieu sur l’opportunité de qualifier certaines plateformes de « structurantes » dès lors que le positionnement de ces entreprises sur le marché du numérique et de l’information est susceptible d’avoir un impact majeur sur l’information des citoyens européens.
La pandémie de la Covid-19 constitue une période particulièrement propice à la désinformation. Pour y faire face, la Commission a publié en juin 2020 une seconde communication, « Tackling COVID-19 disinformation - Getting the facts right ». Le constat est sans appel : c’est celui d’une « infodémie », « une avalanche d’informations relatives au virus, souvent fausses ou inexactes et se propageant rapidement par l’intermédiaire des médias sociaux », susceptible « de semer la confusion, susciter la méfiance et compromettre une réaction efficace en termes de santé publique ». En outre, la Commission a créé un observatoire européen des médias numériques pour détecter, analyser et anticiper les menaces potentielles de désinformation.
Si ces mesures sont importantes, elles doivent être complétées par une série d’actions. Tout d’abord, éduquer à l’information tout en développant l'esprit critique dans tout ce qu'il a de positif pour enrichir le débat. Il ne s'agit pas là que d'éducation aux médias telle qu'elle est couramment pratiquée, mais aussi, dans les cours dédiés, d'enseignement des fondamentaux de la méthode scientifique. Savoir, et donc apprendre, à analyser la désinformation est essentiel pour s’en prémunir. La maîtrise des outils et des méthodes d’analyse de l’information devrait être un objectif des premières années d’école, afin que chacun soit en mesure de différencier les faits, les opinions, la foi - ce qui relève du domaine strictement personnel. La désinformation consistant à modifier un contexte, fausser ou tordre les faits pour agir d’une façon déterminée sur l’opinion, la démarche éducative doit débuter par les faits.
Ensuite, il faut prévenir la désinformation par des actions de sensibilisation permettant de compléter à moyen terme la palette de réponses. Sans les sacraliser (l’erreur est humaine, donc toujours possible) les fact checkers jouent un rôle majeur de sensibilisation. Le renforcement de la culture générale, sans représenter une immunité parfaite, constitue aussi une protection efficace en dotant l’individu de repères et de références qui le protègent plus face à une tentative de manipulation.
Approfondir les échanges au niveau européen sur les politiques d’attribution sera aussi nécessaire. Se distinguant des pays anglo-saxons, la France choisit généralement de ne pas attribuer à un acteur l’attaque dont elle est victime,dans le domaine cyber comme lors d'une attaque informationnelle. L’objectif : ne pas alimenter l’élan de la désinformation, ou éviter de cibler de manière exagérée un pays qui pourrait alimenter un certain fantasme - la « russophobie » constitue un mantra des défenseurs du Kremlin. Mieux coordonner les positions, expliciter et préciser les divergences entre Etats membres de l’UE, de même qu’au niveau OTAN, sans forcément imposer leur uniformisation, s’avère nécessaire.
De même, mieux exploiter les outils juridiques, comme la loi sur la presse, pour l’adapter aux nouvelles formes d’utilisation de l’information, peut constituer une voie intéressante pour les pouvoirs publics.
Pour finir, il est primordial de se doter et de financer des compétences fortes. Il est donc indispensable de posséder des compétences adaptées (qu’elles soient juridiques, d’ingénierie, en sociologie et science de l’information et la communication, etc.) permettant d’identifier des angles pour contraindre les grandes plateformes. En outre, financer des « structures civiles » peut être un bon moyen de promouvoir des pratiques civiles efficaces pour contrer la désinformation.
La lutte contre la désinformation, indispensable pour un débat démocratique de qualité
La tâche est immense. Il convient de renforcer la transparence. La transparence des plateformes (qui publie quoi, et quand qui ne doit pas être confondu avec la fin du pseudonymat, mais une « traçabilité » de l'auteur et de ses interactions), comme la transparence des enjeux financiers (notamment la publicité, comme Facebook le fait pour les campagnes de pub en cours sur les pages ou les entreprises auxquelles des données personnelles sont cédées), mais aussi sur les contenus mis en avant (contenus sponsorisés notamment, ce qui est déjà largement appliqué) ou dont la visibilité est réduite. Plus de transparence aussi sur les règles et les moyens dédiés à la modération, et ces politiques de modération.
Il faut préserver la diversité de l'information, le cas échéant en soutenant les médias fragiles ou en accompagnant/favorisant l'émergence de nouvelles formes d'expression et de publication. Cette diversité vise notamment à empêcher « l'enfermement algorithmique » ou dans une bulle réduite de sources d'information.
Il faut également renforcer la crédibilité des médias. L’éducation aux médias représente un enjeu majeur, tout comme le travail sur le positionnement des médias eux-mêmes. Développer leurs relations avec leur public, rendre visible le travail éditorial, les débats qui peuvent traverser les rédactions ainsi que les règles d’éthique et les procédures de contrôle, peut aider à comprendre la fabrique de l’information.
Enfin, les mesures doivent être inclusives, incluant toutes les parties : éditeurs de presse, réseaux sociaux, hébergeurs internet, régulateurs, organisations de la société civile, etc.
A l’heure de l’information instantanée, lutter contre la désinformation est une priorité majeure pour l’avenir de nos démocraties, la qualité de nos débats publics. La prise de conscience est sans doute faite, à charge de continuer à construire les réponses appropriées, avec une attention continue à l’évolution des pratiques. L’ambition : éviter la création de « bulles cognitives » étanches et continuer à faire société.
Les analyses et propos présentés dans cet article n'engagent que ses auteurs. Patrick Chevallereau, Senior Fellow de l'Institut Open Diplomacy, travaille principalement sur l’OTAN ainsi que sur la politique européenne de défense. Nicolas Hénin, Senior Fellow de l'Institut Open Diplomacy, s'intéresse aux questions désinformation, de contre-terrorisme et de radicalisation. Antoine Petel, Junior Fellow de l'Institut Open Diplomacy, travaille sur les politiques numériques européennes et internationales.