NATO-Report warnt: Europa verliert Kontrolle über die Informationsumgebung

Table of Contents

Was der «NextGen Information Environment»-Report über die Zukunft strategischer Kommunikation verrät

Ein hochkarätig besetztes Expertengremium hat 2025 im Auftrag des NATO Strategic Communications Centre of Excellence die Zukunft der Informationsumgebung analysiert. Der «NextGen Information Environment»-Report, entstanden in vier intensiven Sitzungen von Cambridge bis Riga, zeichnet ein alarmierendes Bild: Europa verliert den Anschluss in einem Technologiewettlauf, der weit über wirtschaftliche Fragen hinausgeht. KI-Systeme werden künftig bestimmen, was Gesellschaften als Wahrheit akzeptieren – und die Zeit für strategische Gegenmassnahmen wird knapp.

Die Verschiebung von defensiv zu offensiv ist bereits Realität

Organisationen stehen vor einer paradoxen Situation: Während Führungskräfte KI noch als sophisticated Tool betrachten, verändert die Technologie bereits fundamental, wie Menschen Realität wahrnehmen und Entscheidungen treffen. Das NATO StratCom COE brachte führende Experten aus Wissenschaft, Politik und Wirtschaft zusammen – Spezialisten für Artificial Intelligence, Cyber Security Policy, Geopolitik, Neurowissenschaften, Internationale Sicherheit und strategische Kommunikation. Ihre gemeinsame Diagnose: Europa befindet sich in einem «neuen Kalten Krieg», der durch Hochtechnologie-Konkurrenz definiert wird.

Warum ist dieser Shift so fundamental? Der Report formuliert es unmissverständlich: «The shift in thinking to offensive rather than defensive strategic communications has already occurred. The critical question is what form it should take.» Gegner setzen bereits heute emerging technologies ein, um Bürger der NATO-Mitgliedstaaten gezielt zu beeinflussen. Die Frage lautet, welche Form der offensive Ansatz demokratischer Staaten annehmen soll.

Wer bestimmt künftig über Sicherheit? Eine der Kernbeobachtungen des Reports: «The security domain is hybridised. Private actors exert growing influence and operate with significant autonomy.» Technologiekonzerne und einzelne Tech-Leader üben zunehmend direkten Einfluss auf strategische Entscheidungen aus, oftmals unabhängig von staatlicher Kontrolle. Der Report nennt dies eine fundamentale Hybridisierung des Sicherheitsbereichs.

Zwischen Tool-Perspektive und Transformationsrealität gefangen

Was macht das europäische Dilemma aus? Der Report diagnostiziert ein gefährliches Missverständnis: «Policy makers are caught in the dilemma of treating artificial intelligence as an economically progressive tool while failing to recognise fully the technology’s ability to transform our lives.» Diese Unklarheit resultiert aus mangelnder Wissenschafts- und Technologieliteracy, besonders in Regierungskreisen – und schafft ein Sicherheitsrisiko.

Die Expertengruppe identifiziert drei problematische europäische Tendenzen:

  • Vorsicht dominiert: Europa priorisiert Regulierung und Ethik, limitiert aber praktisches Experimentieren
  • Hands-on-Erfahrung fehlt: «Without hands-on experience, a Europe short on political will, risks falling irreversibly behind its competitors»
  • Balance fehlt: Europa muss den Wunsch nach Transparenz mit offenem Datenzugang für den Privatsektor ausbalancieren

Die Empfehlung des Reports: «Europe should balance a desire for greater transparency and trust with more open access to data to enable the private sector to experiment through public-private partnerships.»

Welche völlig neuen Konfliktfelder entstehen? Der Report warnt eindringlich: «Neuro-warfare is emerging, requiring urgent attention. This convergence of human and machine surpasses artificial intelligence to become a neurotechnological revolution with profound implications for democracy and the information environment.» Die Vorhersage menschlichen Bewusstseins und Interpretation neuronaler Daten existieren bereits – sie sind keine Science-Fiction mehr.

Der mathematische Wettkampf um Deutungshoheit

Wie funktioniert Informationskriegsführung künftig? Der Report beschreibt eine fundamentale Verschiebung: «In future, information warfare will depend on mathematical calculations made by machines to determine message advantage. Agentic systems will constantly evaluate and attempt to out-compete each other.»

Parallel dazu identifizieren die Experten eine völlig neue Angriffsform: «A new front in information warfare entails the deliberate poisoning of Western open-source AI models by injecting false data designed to corrupt future training cycles.» Gegner entwickeln bereits Inhalte speziell für den Konsum durch Maschinen, um deren Lernprozesse zu manipulieren.

Die Konsequenzen für das gesellschaftliche Vertrauen sind massiv:

  • Fragmentierung durch Personalisierung: «Institutional trust will decline as information environments become more personalised and decentralised through micro-targeting»
  • Autonomie vs. Autorität: Nutzer erwarten Customisation, misstrauen jedoch Expertise und institutioneller Vermittlung
  • Wissen als strategische Währung: «Knowledge is a strategic currency. Influence over what counts as knowledge, how it is summarised, and who owns it is now being contested»

Wer wird künftig als vertrauenswürdig gelten? Der Report skizziert ein Paradoxon: «Where authorship and authenticity are in doubt, AI systems could become the most trusted actors. Conversely, parts of society might lose trust in AI systems due to their perception and fear of data poisoning and manipulation.»

Was bedeutet das für Evidenz und Wahrheit? Die Expertengruppe warnt vor einer fundamentalen Verschiebung: «Advanced AI systems may fragment evidence with competing interpretations of objectivity that use different algorithmic frameworks. They shift the burden of proof from evidencing allegations according to agreed and entrenched standards to choosing which AI-mediated system has the authority to define what constitutes valid evidence.»

Demokratische Aufsicht als Lizenz für Autonomie

Unter welchen Bedingungen darf KI eigenständig entscheiden? Der Report formuliert eine klare Bedingung: «AI’s ‘licence’ to make independent decisions depends on safeguarding transparency, public audit, and democratic oversight. Absenting humans from decision making risks reinforcing autocratic tendencies in technologies.»

Basierend auf den Diskussionen in Cambridge, Oxford und Riga formuliert der Report konkrete Handlungsfelder:

Neuro-Warfare adressieren: NATO-Verbündete sollten «place greater emphasis on creating units dedicated to anticipatory analysis» mit Fokus auf neuronale Daten und deren strategische Implikationen

Von Content zu Curation denken: «A strategic shift is taking place from content creation to influencing curation and filtering» – dies erfordert neue Detektions- und Abwehrkapazitäten

Offensive Kapazitäten aufbauen: «Western democracies should change the way they think about security from frameworks where counter-narrative inevitably responds to narrative, and instead identify how best to impose costs on adversaries»

Governance neu kalibrieren: «Strong political vision and effective leadership are required if short-termism is not to be further institutionalised» – Europa benötigt agilere, risikofreudigere Organisationsformen

Werte von Anfang an einbetten: «Democratic principles should be embedded in AI governance from the outset. It is naive to assume that deregulation and economic growth alone will protect liberal values»

Fünf kritische Reflexionsfragen für Führungskräfte

Der Report macht deutlich, dass Organisationen ihre strategische Ausrichtung grundsätzlich überdenken müssen. Folgende Reflexionsfragen leiten sich aus den Expertenempfehlungen ab:

Zur technologischen Literacy: Wie entwickelt Ihre Organisation aktuell technologische Literacy auf Führungsebene – und reicht das Tempo aus, um strategische Technologieentscheidungen fundiert zu treffen?

Zu Abhängigkeiten: Welche Abhängigkeiten von KI-Systemen und -Infrastrukturen schaffen Sie derzeit, ohne deren langfristige Implikationen für Souveränität und Wertekohärenz systematisch zu evaluieren?

Zur Unterscheidungsfähigkeit: Verfügt Ihre Organisation über Mechanismen, um zwischen technischen Problemen (die datengetrieben lösbar sind) und normativen Fragen (die demokratische Deliberation erfordern) zu unterscheiden?

Zur Kommunikationsstrategie: Wie würde sich Ihre Kommunikationsstrategie verändern, wenn agentische Systeme künftig darüber entscheiden, welche Botschaften Ihre Stakeholder erreichen?

Zur Resilienz: Welche Szenarien von «algorithmischem Wettbewerb» zwischen maschinellen Systemen haben Sie für Ihre kritischen Kommunikationskanäle durchgespielt – und welche Resilienzmassnahmen wären nötig?

Zwischen technologischer Souveränität und demokratischer Identität

Die Expertengruppe formuliert die zentrale Herausforderung präzise: «The critical question is not whether shared information environments exist. Rather, whether historic environments can be preserved.» Europa steht vor der Wahl: Entweder investiert es substantiell und schnell in eigene KI-Kapazitäten, die demokratische Werte von Grund auf integrieren – oder es akzeptiert wachsende Abhängigkeiten von technologischen Infrastrukturen, deren embedded values möglicherweise im Widerspruch zu liberalen Demokratien stehen.

Was ist jetzt zu tun? Der «NextGen Information Environment»-Report basiert auf vier interdisziplinären Forschungssitzungen mit Experten aus Bereichen wie AI Ethics, Defense Economics, Geopolitics, International Security, Philosophy of AI und Strategic Communications. Ihre gemeinsame Botschaft: Die Frage lautet, unter welchen Bedingungen und mit welcher Werteorientierung Organisationen KI einsetzen. Wer heute strategisch in die Gestaltung dieser Technologien investiert, kann morgen in Informationsumgebungen operieren, deren Grundlogik den eigenen Werten entspricht.

Der vollständige Report wurde im Februar 2026 vom NATO StratCom Centre of Excellence veröffentlicht und ist hier zugänglich: Link zum Bericht.

Share this article with a friend