Informationsoperationen und -kriegsführung

Cybersecurity Map 12:02

Stand der Dinge

Die Idee, Informationen als Waffe zu nutzen, ist nicht neu. Bereits in der Antike nutzten Militärführer:innen Desinformation und Propaganda, um ihre Feinde zu täuschen und zu schwächen. Mit der Entwicklung der Kommunikationstechnologie und der Verbreitung des Internets hat sich die Natur der Informationsoperationen drastisch verändert und es stehen heute andere Werkzeuge zur Verfügung. In diesem Beitrag legen wir den Fokus auf staatliche Akteure im Themengebiet, ordnen deren Rollen und Aufgaben ein und heben prioritäre Handlungsfelder sowie Empfehlungen für die politische Schweiz hervor.

Das Thema der Informationskriegführung (engl.: «Information Warfare») hat eine längere Tradition, sowohl international wie auch in der Schweiz. Bereits in den 90er Jahren haben verschiedene Organisationen und Forscher auf mögliche Entwicklungen im Rahmen der Verwendung digitaler Technik für die Produktion und Verbreitung von verschiedentlich manipulierten Informationen aufmerksam gemacht. Dies ist aber erst mit dem Aufkommen der sozialen Medien und der breiteren Verfügbarkeit von Machine-/Deep Learning Technologien zu erschwinglichen Preisen relevant und real geworden.

In den späten 90er Jahren bis ca. 2010 umfasste der Oberbegriff «Informationsoperationen» alle relevanten Themen, von der Kriegführung im Cyberraum bis hin zu Propaganda, Desinformation und psychologischer Kriegsführung. Die heutige Verwendung des Begriffs bezieht sich zunehmend auf die Beeinflussung der öffentlichen Meinung mittels semantischer Methoden, wobei die technologischen Aspekte eine der treibenden Kräfte für die Umsetzung dieser Operationen darstellen. Dabei wird auch von Beeinflussungsoperationen (influence operations) gesprochen.

Der Einsatz von Algorithmen der Künstlichen Intelligenz, Automatisierung und grossen Datenmengen im Web und in den sozialen Medien verändert den Umfang, die Reichweite und die Präzision, wie computergestützte Propagandakampagnen zur Manipulation der öffentlichen Meinung eingesetzt werden können. Heute ist es möglich, Inhalte automatisch oder halbautomatisch zu produzieren, sie in Text, Sprache und Bilder umzuwandeln und sie einer breiten und auf bestimmte Zielgruppen fokussierten Masse von Menschen in kürzester Zeit und ohne nennenswerte Kostenfolge zugänglich zu machen.

Die Natur der sozialen Medien macht sie besonders anfällig für Angriffe. Filterblasen und Echokammern können erzeugt und verstärkt werden; Memes, Fotos und Videos können zur Verbreitung von Informationen genutzt werden, ohne dass eine Überprüfung der Quelle möglich ist; Gemeinschaften können angegriffen werden, indem gefährdete persönliche Profile oder einflussreiche Netzwerkknoten identifiziert werden.

Social Media werden von Regierungen und politischen Parteien manipuliert. Gemäss einer Studie des Oxford Internet Institutes (Industrialized Disinformation: 2020 Global Inventory of Organized Social Media Manipulation) lag im Jahr 2020 die Evidenz für organisierte Social-Media-Manipulationskampagnen durch Cybertruppen oder politische Parteien für 81 Länder  vor, gegenüber 70 Ländern im Jahr 2019 und 48 Ländern im Jahr 2018. In autoritären Staaten wird Social-Media-Manipulation als Instrument zur Kontrolle der eigenen Bevölkerung eingesetzt. Demokratische Staaten sind Ziel von Beeinflussungsoperationen, die von einer Handvoll Akteure ausgeführt werden, darunter (gemäss Beweislage) China, Indien, Iran, Pakistan, Russland, Saudi-Arabien und Venezuela. Die Grösse der Cybertruppen in China wird heute auf 300’000 bis 2 Millionen Personen geschätzt.

Darüber hinaus arbeiten die Cybertruppen oft mit der Privatwirtschaft, zivilgesellschaftlichen Organisationen, Internet-Subkulturen, Jugendgruppen, Hackerkollektiven, Randbewegungen, Einflussnehmern der sozialen Medien und Freiwilligen zusammen, die ihre Sache ideologisch unterstützen. Neben den zuvor genannten Angriffen von aussen, stellen «Angriffe von innen» durch polarisierte Gesellschaften teilweise das grössere Problem dar. Dabei sind die Meinungen und Überzeugungen der Bürger:innen stark gespalten, oft in zwei entgegengesetzten Lagern.

Es gibt eine Vielzahl von Techniken zur Durchführung von Beeinflussungsoperationen, darunter Desinformation, Social Hacking, betrügerische Identitäten, Bots und Trolling. All diesen Techniken ist gemeinsam, dass dadurch politische Vorgänge (z.B. Wahlen) beeinflusst oder gar Revolten und Revolutionen ins Rollen gebracht werden. Das destabilisierende Potential dieser Art von Operationen der Informationskriegführung basiert auf einem tiefen Verständnis menschlicher Entscheidungsprozesse und der Dynamik von Massenphänomenen. Diese Aspekte können wiederum immer einfacher dank neuer Technik und Algorithmen, insbesondere Künstlicher Intelligenz (KI), Large Language Models (LLM) oder GPT simuliert werden.

Herausforderungen

Operationen, die auf staatlicher Ebene versuchen, Einfluss zu nehmen, können die öffentliche Meinung in einem Land zugunsten des Angreifers verändern. Daher sind Demokratien, in denen der politische Entscheidungsprozess stark in der öffentlichen Meinung verwurzelt ist, besonders anfällig für diese Art von Angriffen.

Beeinflussungsoperationen sind aus einer Reihe von Gründen für den Angreifer attraktiv:

1.         sie sind relativ kostengünstig durchzuführen.

2.         sie sind schwer zuzuordnen, und das Risiko einer Eskalation ist begrenzt.

3.         sie ermöglichen die Instrumentalisierung der Benutzer in grossem Massstab.

4.         sie können allein oder in Kombination mit anderen Formen der Kriegsführung (traditionell, wirtschaftlich) eingesetzt werden.

Andererseits ist es schwierig, die Effizienz und die Auswirkungen von Beeinflussungsoperationen zu bestimmen. Sie laufen zudem Gefahr, für den Angreifer ausser Kontrolle zu geraten. Dennoch kann bei mehreren Ereignissen der letzten Zeit, insbesondere bei den Wahlen wie in den USA, in UK und in Frankreich, davon ausgegangen werden, dass es zu Änderungen der öffentlichen Meinung gekommen ist. Offen bleibt, ob diese Änderungen schliesslich entscheidend waren.

Ebenfalls eine offene Frage bleibt, ob die Schweiz bereits das Ziel ausgeklügelter Beeinflussungsoperationen war, bzw. ist. Es gibt Anzeichen dafür, dass diese bei bestimmten politischen Themen aufgetreten sind (z.B. Billag-Abstimmung, 5G-Kontroverse, Ukraine-Krieg).

Handlungsbedarf für Politik, Wirtschaft und Gesellschaft: Diese Lücken bestehen aktuell

Die offizielle Schweiz stellt sich auf den Standpunkt, dass die aktive Verwendung von manipulierter Information für die Erreichung von politischen Zielen für einen demokratischen Staat kein adäquates Mittel ist. Umso wichtiger ist es, folgende Aktionen als Antwort auf die Bedrohung durch Information Warfare umzusetzen (vgl. dazu auch den EU action plan):

  1. Fähigkeiten zur Erkennung, Analyse und Attribuierung von Beeinflussungsoperationen: Aktionen durch Dritte im eigenen Interessenraum sind frühzeitig zu erkennen, zu analysieren und zu attribuieren. Hierfür unerlässlich ist Zugang zu relevanten Daten und Datenanalyse-Werkzeugen sowie zu menschlichen Analyse Fähigkeiten. Sie sollten Teil der Fähigkeiten der staatlichen Behörden sein, in Zusammenarbeit mit privaten Akteuren und in internationaler Zusammenarbeit. Die ständige Analyse der verwendeten semantischen und technologischen Ansätze hilft dabei, die Frühwarnung aufzubauen und sicherzustellen. Nicht zu vernachlässigen ist der Aspekt der Zeitverhältnisse: verbreitete Falschinformationen können lange unentdeckt im Hintergrund zirkulieren und auf einmal z.B. gewaltsame Aktionen von vielen Menschen verursachen.
  2. Reaktion auf entdeckte Beeinflussungsoperationen: Sobald sie entdeckt wurden, werden Reaktionen von den staatlichen Behörden auf der Grundlage der verfügbaren gesetzlichen Grundlage umgesetzt. Reaktionen können Warnsysteme, faktenbasierte Kommunikation in den Medien oder die Begrenzung der Kapazitäten des Angreifers erfordern. Es geht dabei auch darum, der eigenen Bevölkerung den Zugang zu verlässlichen Informationen und Fakten zu ermöglichen. Dieser Prozess muss transparent und nachvollziehbar bleiben, damit die verbreiteten Informationen auch unabhängig verifiziert werden können.
  3. Interaktion zwischen staatlichen Behörden und dem Privatsektor: Um soziale Manipulationen aufzudecken oder darauf zu reagieren, sind staatliche Akteure auf die Zusammenarbeit mit dem Privatsektor angewiesen, insbesondere mit den Betreibern von Social-Media-Plattformen und den Medien. Die Zusammenarbeit kann in besonders schweren Fällen den Zugang zu relevanten Daten, die Schliessung verdächtiger Konten, die Entfernung falscher Informationen oder die Information der Bevölkerung über solche Angriffe und die Berichtigung von Desinformationen betreffen.
  4. Erhöhung der gesellschaftlichen Widerstandsfähigkeit: Da soziale Manipulation auf  Durchschnittsbürger:innen abzielt, ist es von entscheidender Bedeutung, die Gesellschaft für diese Phänomene zu sensibilisieren. Konkrete Massnahmen umfassen die Aufklärung von Menschen aller Altersgruppen darüber, wie sie solche Angriffe erkennen und auf sie reagieren können, sowie den Einbezug der Allgemeinbevölkerung in defensive Aktivitäten, wie z.B. Faktenüberprüfung.

Generell gilt, dass Grundrechte wie die freie Meinungsäusserung für unsere Gesellschaft fundamental und stark darin verankert sind. Somit sind Einschränkungen beim Zugang zu Informationen nur als Ultima Ratio bei besonders schweren Fällen mit kriminellem Charakter gerechtfertigt. Umso wichtiger ist aber auch hier eine zeitgerechte Antwort in Form von Information.

Empfehlungen: So kann die Politik, Wirtschaft und Gesellschaft die Lücken schliessen

  1. Entwicklung staatlicher Fähigkeiten zur Erkennung und Zuordnung von Einflussoperationen. Diese sollten alle Ebenen des Staates (Bund, Kanton, Gemeinde) einbeziehen und auf Bundesebene koordiniert werden.
  2. Politische und rechtliche Grundlagen überprüfen, um Reaktionen auf Beeinflussungsoperationen zu ermöglichen und klare Richtlinien für mögliche Verteidigungsoptionen oder Gegenangriffe festzulegen.
  3. Mit den nationalen und internationalen Medien zusammenarbeiten, falls möglich in Zusammenarbeit mit Partnern, um Desinformationen zu entlarven und die Bevölkerung für das Problem zu sensibilisieren.
  4. Vereinbarungen treffen mit wichtigen sozialen Plattformen, die in der Schweiz als Unterstützung zur Bekämpfung von Social Media Einflussoperationen genutzt werden können.
  5. Schaffung eines Alarmierungssystems bei laufenden Angriffen (wie bei Alertswiss oder als Teil davon).
  6. Politische Koordination mit der Europäischen Union zur Bekämpfung von Social Media-Einflussoperationen, z.B. im Zusammenspiel mit Social Media-Plattformen.
  7. Social-Media-Kompetenz und Bewusstsein für digitale Risiken in Bildungsprogramme integrieren.
  8. Unterstützung von Fact-Checking-Initiativen, die speziell auf den Schweizer Kontext abzielen.
  9. Schwellenwerte, die einen Krisenmodus hervorrufen definieren oder zumindest entsprechende Diskussionen vorantreiben

Appendix

Erklärung einiger häufiger Formen des Information Warfare

  • Desinformation: Verbreitung falscher oder unvollständiger Information, mit der Absicht, zu täuschen.
  • Social Hacking: Nutzung sozio-kognitiver Eigenschaften des menschlichen Geistes, insbesondere Stammesdenken und Hang zur Konformität.
  • Betrügerische Identitäten: Nutzung legitimer Identitäten durch illegitime Akteure.
  • Bots: Automatisierte Computersoftware zur Manipulation von online Plattformen.
  • Trolls: Nutzer:innen oder Bots, die gezielt Nutzer:innen attackieren, beleidigen oder angreifen.

Referenzen

Autor:innen und Themenverantwortung

Karl Aberer, EPFL | Umberto Annino, Microsoft | Myriam Dunn Cavelty, ETHZ

Review Board

Endre Bangerter, BFH | Alain Beuchat, Banque Lombard Odier & Cie SA | Matthias Bossardt, KPMG | Daniel Caduff, AWS | Adolf Doerig, Doerig & Partner | Stefan Frei, ETH Zürich | Roger Halbheer, Microsoft | Katja Dörlemann, Switch | Pascal Lamia, BACS | Martin Leuthold, Switch | Hannes Lubich, Verwaltungsrat und Berater | Luka Malis, SIX Digital Exchange | Adrian Perrig, ETH Zürich | Raphael Reischuk, Zühlke Engineering AG | Ruedi Rytz, BACS | Riccardo Sibilia, VBS | Bernhard Tellenbach, armasuisse | Daniel Walther, Swatch Group Services | Andreas Wespi, IBM Research

Weitere Beiträge aus der Cybersecurity Map

 

(Adversarial) Artificial Intelligence

 

Abhängigkeiten und Souveränität

 

Datenschutz

 

Cloud Computing

 

Digitalisierung / E-Government

 

Internet der Dinge (IoT) und Operational Technology (OT)

 

Quantum computing