Se servir de l’information comme une arme, l’idée n’est pas nouvelle. En effet, dès l’Antiquité, les stratèges militaires utilisaient déjà la désinformation et la propagande dans le but de tromper et d’affaiblir leurs ennemis. L’évolution des technologies de la communication et la généralisation d’Internet ont profondément modifié la nature des opérations de désinformation, sans oublier qu’aujourd’hui de nouveaux instruments existent. Dans cet article, nous porterons notre regard sur les acteurs publics de ce domaine et mettrons en perspective leurs rôles et leurs missions pour en dégager les champs d’action prioritaires et des recommandations à l’intention des milieux politiques suisses.
La question de la guerre informationnelle (en anglais « information warfare ») se pose depuis longtemps, tant en Suisse que sur le plan international. Dès les années 1990, des organisations et des scientifiques mettaient en garde contre les développements potentiels liés à l’usage des technologies numériques dans le but de produire et de diffuser des informations ayant subi des manipulations diverses. Mais c’est seulement avec l’arrivée des réseaux sociaux et l’accès généralisé à des technologies bon marché d’apprentissage automatique/profond que ceux-ci ont pris de l’importance et sont devenus réalité.
De la fin des années 1990 jusqu’aux alentours de 2010, « opération informationnelle » était un terme générique qui regroupait tous les thèmes s’y rapportant, depuis des opérations de guerre dans le cyberespace jusqu’à la propagande, la désinformation ou encore la guerre psychologique. Aujourd’hui, ce terme renvoie au fait d’influencer l’opinion publique par des méthodes sémantiques, dans un contexte où les aspects technologiques constituent des leviers majeurs pour la réalisation d’opérations de cette nature. Dans ce contexte, on parle également d’opérations d’influence.
Le recours aux algorithmes d’intelligence artificielle, à l’automatisation et aux volumes importants de données disponibles sur Internet et dans les réseaux sociaux modifie la taille, la portée et la précision que peuvent atteindre les campagnes de propagande assistée par ordinateur pour manipuler l’opinion publique. Aujourd’hui, nous sommes en mesure de générer des contenus de manière automatisée ou semi-automatisée, de les transformer en texte, en sons ou en images pour les diffuser en masse auprès de publics très ciblés, le tout en un temps record et sans coût financier significatif.
Par leur nature même, les réseaux sociaux sont particulièrement vulnérables aux attaques. Ils permettent la création et le renforcement de bulles de filtre et de chambres d’écho, la diffusion d’informations au moyen de mèmes, de photos ou de vidéos sans possibilité d’en vérifier la source et de lancer des attaques contre certaines communautés en identifiant des profils personnels vulnérables ou des nœuds de réseau influents.
Les réseaux sociaux sont la cible de manipulations par les gouvernements et les partis politiques. Selon une étude de l’Oxford Internet Institute1, il a été démontré que de telles campagnes de manipulation des réseaux sociaux avaient organisées par des groupes cyber ou des partis politiques dans 81 pays en 2020, contre 70 en 2019 et 48 en 2018. Dans les États autoritaires, la manipulation des réseaux sociaux est un instrument qui sert à contrôler la population. Les pays démocratiques sont quant à eux la cible d’opérations d’influence menées par une poignée d’acteurs, parmi lesquels on recense (sur la base de faits avérés) la Chine, l’Inde, l’Iran, le Pakistan, la Russie, l’Arabie saoudite et le Venezuela. On estime qu’en Chine, les groupes cyber comptent aujourd’hui entre 300 000 et 2 millions de personnes.
Par ailleurs, il n’est pas rare que ces groupes coopèrent avec le secteur privé ou avec d’autres groupes : organisations de la société civile, sous-cultures Internet, groupes de jeunes, collectifs de pirates informatiques, mouvements périphériques, figures influentes sur les réseaux sociaux ou bénévoles qui ressentent une proximité idéologique pour leurs causes. Aux attaques extérieures abordées précédemment viennent également s’ajouter les « attaques de l’intérieur » qui, dans des sociétés polarisées, représentent parfois un problème plus préoccupant. Il s’agit d’une situation où les citoyen·ne·s sont très divisé·e·s dans leurs opinions et convictions, s’affrontant souvent dans deux camps adverses.
Les opérations d’influence peuvent utiliser de nombreuses techniques comme la désinformation, le hacking social, l’usurpation d’identité, les bots et le trolling. Leur point commun réside dans leur capacité à influencer les processus politiques (par exemple des élections), voire à déclencher des révoltes et des révolutions. Le potentiel déstabilisateur de telles opérations de guerre informationnelle repose sur une compréhension profonde des mécanismes décisionnels humains et de la dynamique des phénomènes de masse. À leur tour, ces aspects peuvent être simulés de plus en plus facilement grâce à des technologies et des algorithmes nouveaux, en particulier l’intelligence artificielle (IA), les grands modèles de langage (LLM) ou les transformateurs génératifs préentraînés (GPT).
Les tentatives de manipulation visant à exercer une influence à l’échelon étatique peuvent modifier l’opinion publique d’un pays en faveur de l’assaillant. Les démocraties où le processus de prise de décision politique est profondément ancré dans l’opinion publique sont donc particulièrement exposées à ce type d’attaques.
Pour des raisons diverses, les opérations d’influence présentent de nombreux attraits aux yeux de l’assaillant :
1. leur exécution est relativement peu coûteuse ;
2. leur origine est difficile à établir, le risque de complications est limité ;
3. elles permettent une instrumentalisation de masse des utilisateur·rice·s ;
4. elles peuvent être utilisées seules ou associées à d’autres formes de guerre (conventionnelle, économique).
En revanche, il est difficile de déterminer l’efficacité et l’impact des opérations d’influence, qui comportent aussi le risque d’échapper à l’assaillant. Il est toutefois raisonnable de penser que, dans le cadre de plusieurs événements récents, en particulier lors d’élections comme cela a été le cas aux États-Unis, au Royaume-Uni et en France, ces opérations ont pu causer des changements dans l’opinion publique. La question est de savoir si ces changements ont finalement été décisifs.
Autre question en suspens : la Suisse a-t-elle déjà été ou est-elle la cible d’opérations d’influence sophistiquées ? Différents éléments laissent penser que cela a déjà été le cas avec certains sujets politiques (par exemple la votation Billag, la controverse sur la 5G, la guerre en Ukraine).
La position suisse officielle défend le point de vue que l’utilisation active d’informations manipulées dans le but de parvenir à des objectifs politiques ne constitue pas un moyen approprié dans un État démocratique. Il est donc d’autant plus important de mettre en œuvre les actions suivantes en réponse à la menace que représente la guerre informationnelle (à ce sujet, voir aussi le plan d’action de l’UE) :
D’une manière générale, on peut dire que les droits fondamentaux tels que la liberté d’expression constituent le socle de notre société et qu’ils y sont solidement ancrés. Cette tradition implique donc que les restrictions en matière d’accès à l’information ne peuvent être qu’un ultime recours dans les cas particulièrement graves relevant du droit pénal. Là aussi, l’importance d’une réponse, apportée dans des délais opportuns et fournissant des informations, n’en est donc que plus grande.
Développer les capacités des pouvoirs publics à identifier et à attribuer l’origine des opérations d’influence. Il y a lieu d’impliquer tous les niveaux de l’État (fédéral, cantonal, municipal) et d’assurer une coordination nationale.
Réviser les bases politiques et légales afin de permettre une réponse en cas d’opération d’influence et définir des directives claires concernant les options de défense ou de contre-attaque.
Collaborer avec les médias nationaux et internationaux, si possible dans le cadre de coopérations avec des partenaires, afin de détecter la désinformation et sensibiliser le public à ce problème.
Conclure des accords avec les principales plateformes pouvant servir de relais dans la lutte contre les opérations d’influence sur les réseaux sociaux en Suisse.
Créer un système d’alerte pour les attaques en cours (similaire à Alertswiss, voire intégré à celui-ci).
Coordonner les efforts politiques avec ceux de l’Union européenne pour lutter contre les opérations d’influence sur les réseaux sociaux, notamment en collaboration avec les plateformes de réseaux sociaux.
Intégrer les compétences en matière de réseaux sociaux et la sensibilisation aux risques numériques dans les programmes éducatifs.
Soutenir les initiatives de fact-checking spécifiquement axées sur le contexte suisse.
Définir des seuils d’alerte déclenchant un mode de crise ou, tout du moins, encourageant des discussions appropriées.
Explications relatives à quelques formes courantes de guerre informationnelle
Désinformation : diffusion d’informations fausses ou incomplètes dans l’intention de tromper.
Hacking social : utilisation des propriétés sociocognitives de la psychologie humaine, notamment l’esprit de groupe et la propension à la conformité sociale.
Usurpation d’identité : utilisation d’identités légitimes par des acteurs illégitimes.
Bots : applications logicielles automatisées destinées à la manipulation de plateformes en ligne.
Trolls : internautes ou bots attaquant, insultant ou dénigrant des utilisateurs·rice·s de manière ciblée.
Countering Disinformation effectively: An Evidence-Based Policy Guide: https://carnegieendowment.org/research/2024/01/countering-disinformation-effectively-an-evidence-based-policy-guide?lang=en
Cyber Influence Operations: An Overview and Comparative Analysis, Center for Security Studies (CSS), ETH Zürich, Zürich, October 2019: https://css.ethz.ch/en/services/digital-library/publications/publication.html/c4ec0cea-62d0-4d1d-aed2-5f6103d89f93
Karl Aberer, EPFL | Umberto Annino, Microsoft | Myriam Dunn Cavelty, ETHZ
Endre Bangerter, HESB | Alain Beuchat, Banque Lombard Odier & Cie SA | Matthias Bossardt, KPMG | Daniel Caduff, AWS | Adolf Doerig, Doerig & Partner | Stefan Frei, EPF Zurich | Roger Halbheer, Microsoft | Katja Dörlemann, Switch | Pascal Lamia, BACS | Martin Leuthold, Switch | Hannes Lubich, conseil d'administration et conseiller | Luka Malis, SIX Digital Exchange | Adrian Perrig, EPF Zurich | Raphael Reischuk, Zühlke Engineering AG | Ruedi Rytz, BACS | Riccardo Sibilia, DDPS | Bernhard Tellenbach, armasuisse | Daniel Walther, Swatch Group Services | Andreas Wespi, IBM Research