Guerre de l’information et opérations d’influence

Cybersecurity Map 12:02

Situation actuelle

Se servir de l’information comme une arme, l’idée n’est pas nouvelle. En effet, dès l’Antiquité, les stratèges militaires utilisaient déjà la désinformation et la propagande dans le but de tromper et d’affaiblir leurs ennemis. L’évolution des technologies de la communication et la généralisation d’Internet ont profondément modifié la nature des opérations de désinformation, sans oublier qu’aujourd’hui de nouveaux instruments existent. Dans cet article, nous porterons notre regard sur les acteurs publics de ce domaine et mettrons en perspective leurs rôles et leurs missions pour en dégager les champs d’action prioritaires et des recommandations à l’intention des milieux politiques suisses. 

La question de la guerre informationnelle (en anglais « information warfare ») se pose depuis longtemps, tant en Suisse que sur le plan international. Dès les années 1990, des organisations et des scientifiques mettaient en garde contre les développements potentiels liés à l’usage des technologies numériques dans le but de produire et de diffuser des informations ayant subi des manipulations diverses. Mais c’est seulement avec l’arrivée des réseaux sociaux et l’accès généralisé à des technologies bon marché d’apprentissage automatique/profond que ceux-ci ont pris de l’importance et sont devenus réalité. 

De la fin des années 1990 jusqu’aux alentours de 2010, « opération informationnelle » était un terme générique qui regroupait tous les thèmes s’y rapportant, depuis des opérations de guerre dans le cyberespace jusqu’à la propagande, la désinformation ou encore la guerre psychologique. Aujourd’hui, ce terme renvoie au fait d’influencer l’opinion publique par des méthodes sémantiques, dans un contexte où les aspects technologiques constituent des leviers majeurs pour la réalisation d’opérations de cette nature. Dans ce contexte, on parle également d’opérations d’influence. 

Le recours aux algorithmes d’intelligence artificielle, à l’automatisation et aux volumes importants de données disponibles sur Internet et dans les réseaux sociaux modifie la taille, la portée et la précision que peuvent atteindre les campagnes de propagande assistée par ordinateur pour manipuler l’opinion publique. Aujourd’hui, nous sommes en mesure de générer des contenus de manière automatisée ou semi-automatisée, de les transformer en texte, en sons ou en images pour les diffuser en masse auprès de publics très ciblés, le tout en un temps record et sans coût financier significatif. 

Par leur nature même, les réseaux sociaux sont particulièrement vulnérables aux attaques. Ils permettent la création et le renforcement de bulles de filtre et de chambres d’écho, la diffusion d’informations au moyen de mèmes, de photos ou de vidéos sans possibilité d’en vérifier la source et de lancer des attaques contre certaines communautés en identifiant des profils personnels vulnérables ou des nœuds de réseau influents.  

Les réseaux sociaux sont la cible de manipulations par les gouvernements et les partis politiques. Selon une étude de l’Oxford Internet Institute1, il a été démontré que de telles campagnes de manipulation des réseaux sociaux avaient organisées par des groupes cyber ou des partis politiques dans 81 pays en 2020, contre 70 en 2019 et 48 en 2018. Dans les États autoritaires, la manipulation des réseaux sociaux est un instrument qui sert à contrôler la population. Les pays démocratiques sont quant à eux la cible d’opérations d’influence menées par une poignée d’acteurs, parmi lesquels on recense (sur la base de faits avérés) la Chine, l’Inde, l’Iran, le Pakistan, la Russie, l’Arabie saoudite et le Venezuela. On estime qu’en Chine, les groupes cyber comptent aujourd’hui entre 300 000 et 2 millions de personnes. 

Par ailleurs, il n’est pas rare que ces groupes coopèrent avec le secteur privé ou avec d’autres groupes : organisations de la société civile, sous-cultures Internet, groupes de jeunes, collectifs de pirates informatiques, mouvements périphériques, figures influentes sur les réseaux sociaux ou bénévoles qui ressentent une proximité idéologique pour leurs causes. Aux attaques extérieures abordées précédemment viennent également s’ajouter les « attaques de l’intérieur » qui, dans des sociétés polarisées, représentent parfois un problème plus préoccupant. Il s’agit d’une situation où les citoyen·ne·s sont très divisé·e·s dans leurs opinions et convictions, s’affrontant souvent dans deux camps adverses.  

Les opérations d’influence peuvent utiliser de nombreuses techniques comme la désinformation, le hacking social, l’usurpation d’identité, les bots et le trolling. Leur point commun réside dans leur capacité à influencer les processus politiques (par exemple des élections), voire à déclencher des révoltes et des révolutions. Le potentiel déstabilisateur de telles opérations de guerre informationnelle repose sur une compréhension profonde des mécanismes décisionnels humains et de la dynamique des phénomènes de masse. À leur tour, ces aspects peuvent être simulés de plus en plus facilement grâce à des technologies et des algorithmes nouveaux, en particulier l’intelligence artificielle (IA), les grands modèles de langage (LLM) ou les transformateurs génératifs préentraînés (GPT).  

Enjeux  

Les tentatives de manipulation visant à exercer une influence à l’échelon étatique peuvent modifier l’opinion publique d’un pays en faveur de l’assaillant. Les démocraties où le processus de prise de décision politique est profondément ancré dans l’opinion publique sont donc particulièrement exposées à ce type d’attaques. 

Pour des raisons diverses, les opérations d’influence présentent de nombreux attraits aux yeux de l’assaillant : 

1. leur exécution est relativement peu coûteuse ; 

2. leur origine est difficile à établir, le risque de complications est limité ; 

3. elles permettent une instrumentalisation de masse des utilisateur·rice·s ; 

4. elles peuvent être utilisées seules ou associées à d’autres formes de guerre (conventionnelle, économique). 

En revanche, il est difficile de déterminer l’efficacité et l’impact des opérations d’influence, qui comportent aussi le risque d’échapper à l’assaillant. Il est toutefois raisonnable de penser que, dans le cadre de plusieurs événements récents, en particulier lors d’élections comme cela a été le cas aux États-Unis, au Royaume-Uni et en France, ces opérations ont pu causer des changements dans l’opinion publique. La question est de savoir si ces changements ont finalement été décisifs. 

Autre question en suspens : la Suisse a-t-elle déjà été ou est-elle la cible d’opérations d’influence sophistiquées ? Différents éléments laissent penser que cela a déjà été le cas avec certains sujets politiques (par exemple la votation Billag, la controverse sur la 5G, la guerre en Ukraine). 

Mesures à envisager aux échelons politiques, économiques et sociétaux : les faiblesses actuelles 

La position suisse officielle défend le point de vue que l’utilisation active d’informations manipulées dans le but de parvenir à des objectifs politiques ne constitue pas un moyen approprié dans un État démocratique. Il est donc d’autant plus important de mettre en œuvre les actions suivantes en réponse à la menace que représente la guerre informationnelle (à ce sujet, voir aussi le plan d’action de l’UE) :  

  1. Capacités de détection, d’analyse et d’attribution des opérations d’influence : les opérations menées par des tiers dans notre sphère d’intérêts doivent être identifiées, analysées et leurs auteurs établis à une stade précoce d’avancement. À ce titre, il est crucial d’avoir accès à des données pertinentes et à des outils d’analyse data ainsi qu’à des compétences humaines en analyse. L’objectif est que les pouvoirs publics disposent de ces compétences au travers d’une collaboration avec des acteurs privés, elle-même inscrite dans le cadre d’une coopération internationale. Élaborer et assurer une alerte précoce passe par l’analyse constante des approches sémantiques et technologiques utilisées. Il convient de ne pas négliger la dimension temporelle : une fois diffusées, les infox peuvent circuler en toute discrétion pendant une période assez longue puis, par exemple, être à l’origine d’actions tout aussi subites que violentes de la part d’un grand nombre de personnes. 
  2. Réaction face à des opérations d’influence : dès qu’une opération est identifiée, les autorités de l’État mettent en œuvre les réponses à apporter sur la base du cadre législatif en vigueur. Ces réactions peuvent nécessiter des systèmes d’alerte, une communication factuelle dans les médias ou la limitation des capacités de l’assaillant. Mais il s’agit également de permettre l’accès de la population à des faits et des informations fiables. Ce processus nécessite clarté et transparence, de sorte que les informations diffusées puissent faire l’objet de vérifications indépendantes.  
  3. Interaction des autorités publiques avec le secteur privé : pour déceler des manipulations sociales ou y réagir, les entités étatiques ne peuvent pas se dispenser de collaborer avec le secteur privé, notamment avec les opérateurs des plateformes de réseaux sociaux et avec les médias. Dans les cas les plus sérieux, cette collaboration peut porter sur l’accès aux données concernées, sur la clôture de comptes suspects, sur la suppression d’infox ou sur la communication au public d’informations en lien avec ces attaques ainsi que sur la rectification des fausses informations propagées. 
  4. Consolidation de la résilience sociétale : étant donné que la manipulation sociale prend pour cible monsieur et madame Tout-le-Monde, il est primordial de sensibiliser la société à ces phénomènes. Parmi les mesures concrètes se trouvent l’éducation de toutes les catégories d’âge sur la manière de détecter de telles attaques et d’y réagir ainsi que le recours à la société civile dans le cadre d’activités de défense comme la vérification de faits. 

D’une manière générale, on peut dire que les droits fondamentaux tels que la liberté d’expression constituent le socle de notre société et qu’ils y sont solidement ancrés. Cette tradition implique donc que les restrictions en matière d’accès à l’information ne peuvent être qu’un ultime recours dans les cas particulièrement graves relevant du droit pénal. Là aussi, l’importance d’une réponse, apportée dans des délais opportuns et fournissant des informations, n’en est donc que plus grande. 

Recommandations : des solutions pour les milieux politiques, économiques et sociétaux 

  1. Développer les capacités des pouvoirs publics à identifier et à attribuer l’origine des opérations d’influence. Il y a lieu d’impliquer tous les niveaux de l’État (fédéral, cantonal, municipal) et d’assurer une coordination nationale. 

  2. Réviser les bases politiques et légales afin de permettre une réponse en cas d’opération d’influence et définir des directives claires concernant les options de défense ou de contre-attaque. 

  3. Collaborer avec les médias nationaux et internationaux, si possible dans le cadre de coopérations avec des partenaires, afin de détecter la désinformation et sensibiliser le public à ce problème. 

  4. Conclure des accords avec les principales plateformes pouvant servir de relais dans la lutte contre les opérations d’influence sur les réseaux sociaux en Suisse. 

  5. Créer un système d’alerte pour les attaques en cours (similaire à Alertswiss, voire intégré à celui-ci). 

  6. Coordonner les efforts politiques avec ceux de l’Union européenne pour lutter contre les opérations d’influence sur les réseaux sociaux, notamment en collaboration avec les plateformes de réseaux sociaux. 

  7. Intégrer les compétences en matière de réseaux sociaux et la sensibilisation aux risques numériques dans les programmes éducatifs. 

  8. Soutenir les initiatives de fact-checking spécifiquement axées sur le contexte suisse. 

  9. Définir des seuils d’alerte déclenchant un mode de crise ou, tout du moins, encourageant des discussions appropriées. 

Annexe

Explications relatives à quelques formes courantes de guerre informationnelle 

  • Désinformation : diffusion d’informations fausses ou incomplètes dans l’intention de tromper. 

  • Hacking social : utilisation des propriétés sociocognitives de la psychologie humaine, notamment l’esprit de groupe et la propension à la conformité sociale.  

  • Usurpation d’identité : utilisation d’identités légitimes par des acteurs illégitimes. 

  • Bots : applications logicielles automatisées destinées à la manipulation de plateformes en ligne. 

  • Trolls : internautes ou bots attaquant, insultant ou dénigrant des utilisateurs·rice·s de manière ciblée. 

Références

Auteur·rice·s et responsables thématiques

Karl Aberer, EPFL | Umberto Annino, Microsoft | Myriam Dunn Cavelty, ETHZ

Comité de lecture 

Endre Bangerter, HESB | Alain Beuchat, Banque Lombard Odier & Cie SA | Matthias Bossardt, KPMG | Daniel Caduff, AWS | Adolf Doerig, Doerig & Partner | Stefan Frei, EPF Zurich | Roger Halbheer, Microsoft | Katja Dörlemann, Switch | Pascal Lamia, BACS | Martin Leuthold, Switch | Hannes Lubich, conseil d'administration et conseiller | Luka Malis, SIX Digital Exchange | Adrian Perrig, EPF Zurich | Raphael Reischuk, Zühlke Engineering AG | Ruedi Rytz, BACS | Riccardo Sibilia, DDPS | Bernhard Tellenbach, armasuisse | Daniel Walther, Swatch Group Services | Andreas Wespi, IBM Research

Autres articles de la Cybersecurity Map

 

Intelligence artificielle (antagoniste)

 

Dépendances et souveraineté

 

Confidentialité des données

 

Cloud Computing

 

Numérisation | Cyberadministration

 

Internet des objets (IoT) et technologie opérationnelle (OT)

 

Informatique quantique