Die neue Dimension des Cyberkriegs

Cyberkonflikte gibt es seit Jahrzehnten: Staatliche Hacker, Industriespionage, koordinierte Desinformationskampagnen. Doch was sich seit 2024 verändert hat, ist fundamental anders. Nicht das Was hat sich gewandelt — sondern das Wie schnell, das Wie skalierbar und das Wie automatisiert.

Künstliche Intelligenz ist der Multiplikator, der aus einem einzelnen staatlichen Hacker eine virtuelle Armee macht. Aus einer Handvoll gezielter Phishing-Mails werden Millionen individuell zugeschnittener Angriffsvektoren. Aus einem synthetischen Video wird binnen Minuten eine global verbreitete Falschinformation, die Märkte bewegt oder Wahlen beeinflusst.

ESET, eines der führenden europäischen Cybersicherheitsunternehmen, formulierte in seiner Dezember-2025-Prognose unmissverständlich: 2026 werde ein Wendepunkt der digitalen Sicherheit. Nicht weil eine neue Bedrohung auftaucht, sondern weil bestehende Bedrohungen durch KI eine Qualität erreichen, auf die die meisten Staaten — auch europäische — nicht vorbereitet sind.

◾ Schlüsselfakt

KI verändert Cyberkrieg in drei Dimensionen gleichzeitig: Geschwindigkeit (Angriffe in Echtzeit), Skalierung (ein Angreifer, tausend simultane Vektoren) und Präzision (individuell auf Zielpersonen zugeschnittene Inhalte). Klassische Abwehrmechanismen stoßen damit an ihre Grenzen.

Das ist der Kern des Problems — und der Grund, warum dieser Artikel keine Spekulation über ferne Szenarien ist, sondern eine Bestandsaufnahme dessen, was bereits passiert.

KI als Werkzeug der Kriegsführung — Beispiele aus der Praxis

Die wohl spektakulärste bekannte KI-gestützte Geheimdienstoperation der jüngsten Zeit trägt den Namen Salt Typhoon. Dahinter verbirgt sich eine chinesische Hackergruppe, die zwischen 2024 und 2025 tief in die Infrastruktur amerikanischer Telekommunikationsunternehmen eindrang — darunter AT&T, Verizon und T-Mobile USA. Nach Einschätzung des US-Senats handelt es sich um den größten bekannten Telekommunikations-Spionageangriff in der Geschichte der USA. Ziel war es, Zugang zu Abhörsystemen zu erlangen — also zu jenen Backdoors, die US-Behörden für legale Überwachung nutzen. KI-gestützte Werkzeuge ermöglichten es den Angreifern, sich über Monate unentdeckt in den Netzwerken zu bewegen und Kommunikation hochrangiger politischer Persönlichkeiten abzufangen.

Russlands Geheimdienst GRU unterhält seit mindestens 2023 eine spezialisierte KI-Einheit, die GPT-ähnliche Sprachmodelle für Desinformationskampagnen einsetzt. OpenAI selbst bestätigte 2024, dass staatliche Akteure aus Russland, China, Iran und Nordkorea seine Modelle für verdeckte Operationen nutzten — bis die Konten gesperrt wurden. Die Fähigkeit, automatisiert tausende überzeugend wirkende Social-Media-Profile zu befüllen, politische Narrative zu generieren und Gegner zu diskreditieren, ist damit nicht mehr auf große Hackergruppen beschränkt.

„Wir beobachten, dass KI den Aufwand für staatliche Informationsoperationen drastisch reduziert. Was früher Dutzende Mitarbeiter erforderte, kann heute ein kleines Team mit Sprachmodellen leisten." — Sicherheitsforscher, Aufzeichnung einer NATO-Konferenz, 2025 (anonym)

China verfolgt dabei einen systemischen Ansatz: Die Doktrin der „Military-Civil Fusion" (军民融合, Jūnmín rónghé) verpflichtet chinesische Technologieunternehmen — von Alibaba bis zu kleineren KI-Startups — gesetzlich dazu, ihre Forschung und Ressourcen dem Militär zur Verfügung zu stellen. Das bedeutet: Jedes chinesische KI-Modell, jede Datenbasis, jede Forschungsarbeit ist potenziell Dual-Use. Eine scharfe Trennung zwischen zivilem und militärischem KI-Sektor existiert in China strukturell nicht.

Russland und Belarus vertiefen unterdessen ihre digitale Kooperation. Belarussische Cybereinheiten, die unter dem Dach des GRU operieren, greifen auf russische Angriffswerkzeuge und Infrastruktur zurück. Die enge Integration beider Geheimdienste im Cyberbereich macht Attributionen schwieriger und schafft eine Art geteilte Kapazität für hybride Operationen — insbesondere gegen Ukraine, Polen und die baltischen Staaten.

◾ Staatliche KI-Akteure im Überblick
  • China: Military-Civil Fusion, Salt Typhoon, systematische Industriespionage
  • Russland: GRU AI-Einheit, Desinformation via GPT-Modelle, Belarus-Kooperation
  • Iran: Gezieltes Targeting von Dissidenten, Drohnenspionage
  • Nordkorea: Kryptowährungsdiebstahl via KI-gestützte Angriffe, Waffenfinanzierung

Autonome Waffensysteme: Die ethische Grenze

Keine Frage in der aktuellen Sicherheitspolitik ist moralisch so explosiv wie diese: Wer entscheidet, wenn eine KI über Leben und Tod urteilt?

Das israelische KI-System „Lavender" rückte 2024 in den Fokus der internationalen Debatte, als investigative Medien — darunter +972 Magazine und Local Call — interne Quellen zitierten, wonach das System im Gaza-Konflikt rund 37.000 palästinensische Männer als potenzielle militärische Ziele klassifiziert hatte. Lavender analysierte Verhaltensmuster, Kommunikationsdaten und soziale Netzwerke, um eine Wahrscheinlichkeit für Militanzgehörigkeit zu berechnen. Berichten zufolge wurde das System mit erheblicher Autonomie eingesetzt, menschliche Überprüfung fand teils nur in sehr kurzen Zeitfenstern statt.

Die israelische Armee bestritt, dass Lavender autonom tötete — KI sei lediglich ein Entscheidungsunterstützungswerkzeug. Die Debatte darunter ist jedoch fundamentaler: Was ist ein „verantwortlicher menschlicher Eingriff", wenn ein System tausende Ziele pro Tag identifiziert? Wann wird aus Entscheidungsunterstützung de facto Entscheidungsautonomie?

„Die Frage ist nicht ob autonome Waffensysteme existieren — sie existieren bereits. Die Frage ist, wer die Rechenschaft trägt, wenn sie irren." Internationales Komitee vom Roten Kreuz (IKRK), Positionspapier 2023

Die NATO AI-Strategy von 2021 — die „Principles of Responsible Use of Artificial Intelligence in Defence" — versucht, einen normativen Rahmen zu setzen: Menschliche Kontrolle, Erklärbarkeit, Zuverlässigkeit, Rückverfolgbarkeit. Die Prinzipien sind gut formuliert, aber nicht rechtsverbindlich. Kein NATO-Mitglied ist juristisch verpflichtet, sie einzuhalten. Eine internationale Konvention zu autonomen Waffensystemen, vergleichbar dem Ottawa-Abkommen zu Landminen, existiert nicht — trotz jahrelanger Diskussionen bei den Vereinten Nationen.

⚠ Warnung

Der Mangel eines verbindlichen internationalen Rahmens für autonome Waffensysteme bedeutet: Staaten können KI-basierte Zielerkennung und Angriffsautomation einsetzen, ohne klare rechtliche Konsequenzen zu riskieren. Das Fenster für eine Regulierung schließt sich mit jeder neuen Waffengeneration weiter.

Deepfakes und Desinformation als Waffe

Im Februar 2024 ging ein Video viral, das den slowakischen Oppositionspolitiker Michal Šimečka dabei zu zeigen schien, wie er über Wahlbetrug sprach. Es war gefälscht — generiert wenige Tage vor der Parlamentswahl. Das Video verbreitete sich schnell genug, um den Nachrichtenzyklus zu prägen, bevor Faktenchecker reagieren konnten.

Das ist das eigentliche Problem mit Deepfakes: nicht ihre Perfektion, sondern ihre Geschwindigkeit und Reichweite. Moderne Bild- und Videogeneratoren produzieren überzeugende Fälschungen in Sekunden. Plattformen, auf denen Inhalte in Minuten Millionen Menschen erreichen, schaffen eine Asymmetrie: Die Verbreitung einer Lüge ist exponentiell, ihre Korrektur linear.

Russische Geheimdienste haben dieses Instrument systematisiert. Die GRU-nahe Gruppe Ghostwriter operierte jahrelang damit, gefälschte Zitate und manipulierte Dokumente osteuropäischen Politikern unterzuschieben. Mit generativer KI ist die Schranke der technischen Kompetenz weggefallen: Staatliche Akteure, aber auch substaatliche Gruppen und einzelne Individuen können heute synthetische Inhalte in Industriequalität produzieren.

Ein besonders besorgniserregendes Phänomen ist der aufkommende Markt für „KI-Modelle unbekannter Herkunft". Auf einschlägigen Foren und Marktplätzen im Darknet werden fine-tuned Sprachmodelle gehandelt, die speziell für Desinformation, Propaganda oder das Umgehen von Sicherheitsmechanismen angepasst wurden. Es ist unklar, ob manche dieser Modelle absichtlich kompromittiert wurden — also Backdoors oder subtile Biases eingebaut haben —, die ihre Ausgaben in bestimmte Richtungen lenken.

◾ Deepfake-Risikofaktoren 2026
  • Generierung überzeugender Video-Deepfakes: unter 60 Sekunden mit Standardhardware
  • Echtzeit-Voice-Cloning: Stimme einer Person mit wenigen Minuten Audiomaterial replizierbar
  • Plattformerkennung: Erkennungssoftware läuft den Generatoren technologisch hinterher
  • Markt für manipulierte Modelle: keine internationale Regulierung, kein Herkunftsnachweis

Demokratische Systeme sind für dieses Szenario strukturell anfällig. Vertrauen in Institutionen und in geteilte Wirklichkeit sind Grundvoraussetzungen demokratischer Legitimität. Beides lässt sich mit synthetischen Medien gezielt untergraben — nicht durch einen einzelnen viralen Moment, sondern durch eine anhaltende Erosion, in der Bürgerinnen und Bürger lernen, dass alles gefälscht sein könnte, und aufhören, der Wahrheit überhaupt noch Priorität einzuräumen.

Der Drohnensektor im Fadenkreuz

Drohnen waren über Jahrzehnte Nischenprodukte des Militärs. Seit dem Ukraine-Krieg sind sie zur bestimmenden Waffe des modernen Gefechtsfelds geworden — und gleichzeitig zu einem der kritischsten Spionageziele für staatliche Akteure.

Die Ukraine hat im Konflikt mit Russland eine technologische Eigenentwicklung vollzogen, die Militäranalytiker weltweit aufhorchen lässt: KI-gesteuerte Drohnen, die ohne GPS-Abhängigkeit navigieren. Statt Satellitenkoordinaten nutzen diese Systeme Bilderkennungsalgorithmen, die in Echtzeit Gelände, Gebäude und Fahrzeuge identifizieren und die Drohne eigenständig zum Ziel führen. GPS-Jamming — eine russische Standardtaktik — wird damit weitgehend wirkungslos. Die militärische Implikation ist erheblich: Autonome Präzisionswaffen, die sich nicht mehr durch elektronische Kriegsführung stören lassen.

Gleichzeitig ist der zivile Drohnensektor zum Spionageziel geworden. Westliche Geheimdienste warnen, dass staatliche Akteure — allen voran China, Russland, Iran und Nordkorea — aktiv versuchen, Zugang zu Drohnentechnologie, Steuerungssoftware und Batteriesystemen zu erlangen. Der Hintergrund: Wer die Drohnentechnologie von morgen kontrolliert, kontrolliert ein Schlüsselelement künftiger Kriegsführung und kritischer Infrastrukturüberwachung.

„Drohnen sind die kritische Infrastruktur des nächsten Jahrzehnts — und wir schützen sie wie ein Consumer-Produkt." — Sicherheitspolitischer Analyst, European Defence Agency, 2025

Das Problem ist strukturell: Der globale Drohnenmarkt wird von chinesischen Herstellern dominiert. DJI hält einen Marktanteil von über 70 Prozent im zivilen Segment. Die USA haben DJI bereits auf eine Sanktionsliste gesetzt. Innerhalb der EU fehlt eine einheitliche Linie. Österreichische Behörden, Feuerwehren und Infrastrukturbetreiber setzen weiterhin auf Hardware, deren Software-Lieferkette nicht vollständig transparent ist.

⚠ Strukturrisiko

Die Abhängigkeit westlicher Staaten von chinesischer Drohnentechnologie ist ein strategisches Risiko — nicht nur militärisch, sondern für jede Infrastruktur, die auf Drohnen für Inspektion, Überwachung oder Logistik setzt. Lieferketten-Kompromittierung und Software-Backdoors sind reale, nachgewiesene Angriffsvektoren.

Wer hat die KI-Rüstung gewonnen?

Die ehrliche Antwort: noch niemand. Aber der Wettbewerb ist in vollem Gang — und asymmetrisch.

China investiert systematisch und mit staatlicher Koordination. Die Military-Civil Fusion-Doktrin schafft einen Innovations-Sog, der in demokratischen Staaten schwer zu replizieren ist: Privates Kapital, öffentliche Forschung und militärische Anforderungen fließen in ein System. Chinas KI-Investitionen im Verteidigungssektor wurden 2024 auf über 15 Milliarden Dollar jährlich geschätzt. Ziel der Pekinger Führung ist es, bis 2030 globaler KI-Führer zu sein — ausdrücklich auch im militärischen Bereich.

Die USA reagieren mit dem AI Safety Institute, dem DARPA AI Exploration Program und einer Vielzahl bilateraler Partnerschaften. Die militärische KI-Integration ist weiter fortgeschritten als in Europa, aber auch hier gibt es blinde Flecken: Interoperabilität zwischen Geheimdiensten, Ethik-Frameworks für autonome Systeme und die Frage, wie viel KI-Automatisierung in nuklearen Entscheidungsprozessen akzeptabel ist.

Russland ist technologisch im Nachteil — Sanktionen, Brain Drain und eingeschränkter Zugang zu westlichen Chips bremsen die eigene KI-Entwicklung. Die Reaktion: massiver Fokus auf KI-Anwendungen, die wenig Rechenleistung brauchen, aber hohe Wirkung haben. Desinformation, Social Engineering, gezielte Cyberangriffe. Russland kompensiert technologische Schwäche mit doktrinärer Flexibilität und taktischer Kreativität.

Europa: Zwischen Regulierung und Rückstand

Europa hat etwas getan, was kein anderer Kontinent getan hat: Es hat die erste umfassende KI-Regulierung der Welt verabschiedet. Der EU AI Act, 2024 in Kraft getreten, klassifiziert KI-Systeme nach Risikoklassen und stellt strenge Anforderungen an Hochrisiko-Anwendungen — Biometrie, kritische Infrastruktur, Kreditvergabe.

Doch der EU AI Act enthält eine bemerkenswerte Lücke: Militärische KI ist explizit ausgenommen. Artikel 2 des Gesetzes schließt Systeme aus, die ausschließlich für militärische oder nationale Sicherheitszwecke entwickelt wurden. Das bedeutet: Europa hat eine der strengsten KI-Regulierungen der Welt — aber genau dort, wo KI am gefährlichsten sein kann, greift sie nicht.

Gleichzeitig fehlt Europa ein gemeinsames KI-Militärprogramm. Die Verteidigungsforschung der EU — koordiniert über die European Defence Agency (EDA) und den Europäischen Verteidigungsfonds — ist fragmentiert und im Vergleich zu US-amerikanischen oder chinesischen Programmen deutlich unterfinanziert. Jeder Mitgliedstaat entwickelt eigene Fähigkeiten, Interoperabilität ist die Ausnahme.

◾ Europas KI-Verteidigungslücke
  • EU AI Act (2024): militärische KI explizit ausgenommen (Art. 2 Abs. 3)
  • Kein gemeinsames europäisches KI-Rüstungsprogramm
  • NATO AI-Prinzipien (2021): nicht rechtsverbindlich
  • Fragmentierte nationale Fähigkeiten ohne gemeinsame Doktrin
  • Abhängigkeit von US-amerikanischer KI-Infrastruktur (Cloud, Chips, Modelle)

Das ist keine abstrakte politische Frage. Es ist eine strategische Lücke. In einem Konflikt, in dem KI-gestützte Cyberangriffe in Minuten kritische Infrastruktur lahmlegen können, in dem autonome Drohnen ohne GPS navigieren und Deepfakes öffentliche Debatte vergiften, braucht Europa nicht nur Regulierung — es braucht Fähigkeiten.

Die Diskussion über Strategic Autonomy bleibt größtenteils theoretisch, solange Europa für KI-Trainingsdaten, Rechenzentrumsinfrastruktur und Halbleiter weitgehend von den USA und Asien abhängig ist. Der CHIPS Act der EU und das KI-Büro der Kommission sind Schritte in die richtige Richtung — aber das Tempo ist zu langsam angesichts der Geschwindigkeit, mit der sich die Bedrohungslandschaft entwickelt.

Was Österreich wissen muss

Österreich ist kein NATO-Mitglied, aber kein neutraler Beobachter. Als Mitglied der Europäischen Union, als Sitz internationaler Organisationen — von der OSZE bis zur IAEA — und als Land mit einer offenen Wirtschaft ist Österreich ein attraktives Ziel für staatliche Spionage und hybride Einflussoperationen.

Die Direktion Staatsschutz und Nachrichtendienst (DSN), seit 2021 Nachfolger des BVT, ist Österreichs ziviler Inlandsgeheimdienst. In ihren Berichten der letzten Jahre beschreibt die DSN systematisch, wie ausländische staatliche Akteure versuchen, österreichische Behörden, Forschungseinrichtungen und kritische Infrastruktur zu penetrieren. China und Russland werden dabei namentlich als Hauptakteure genannt.

CERT.at, das österreichische Computer Emergency Response Team, koordiniert die Reaktion auf Cyberangriffe auf nationale Infrastruktur. In den letzten Jahren wurden mehrfach staatlich zugeordnete Angriffe auf österreichische Behörden und Unternehmen registriert — darunter Angriffe auf das Außenministerium (2020) und auf Teile der parlamentarischen IT-Infrastruktur.

Was bedeutet das konkret für Österreich im Jahr 2026?

⚠ Handlungsbedarf

Österreich braucht eine nationale KI-Sicherheitsstrategie, die über generische Cybersicherheitsframeworks hinausgeht. DSN und CERT.at leisten wichtige Arbeit — aber ohne politischen Willen zu investieren, ohne klare Regeln für staatlich eingesetzte KI und ohne Beteiligung an europäischer Verteidigungskooperation bleibt Österreich reaktiv statt präventiv.

Die gute Nachricht: Österreich muss das Rad nicht neu erfinden. Als EU-Mitglied hat es Zugang zu Strukturen — dem European Union Agency for Cybersecurity (ENISA), dem EU-Cybersolidaritätsmechanismus, dem Europäischen Verteidigungsfonds — die gezielt gestärkt werden können. Der erste Schritt ist Bewusstsein: für die Bedrohung, für die eigene Verwundbarkeit, und für die Tatsache, dass KI-Sicherheit 2026 keine technische Nischenfrage mehr ist, sondern Kernaufgabe staatlicher Daseinsvorsorge.

2026 ist, wie ESET prognostiziert hat, ein Wendepunkt. Nicht weil eine Apokalypse bevorsteht — sondern weil die Entscheidungen, die jetzt getroffen oder nicht getroffen werden, die digitale Sicherheitsarchitektur der nächsten Dekade prägen. Österreich und Europa können es sich nicht leisten, Zuschauer zu bleiben.

Quellen

  1. ESET Threat Report — Predictions for 2026 (Dezember 2025): eset.com
  2. Reuters: „Salt Typhoon hacked telcos in dozens of countries" (Dezember 2024): reuters.com
  3. OpenAI: „Disrupting malicious uses of AI by state actors" (2024): openai.com
  4. +972 Magazine / Local Call: „Lavender: The AI machine directing Israel's bombing spree in Gaza" (2024): 972mag.com
  5. NATO: „Principles of Responsible Use of Artificial Intelligence in Defence" (2021): nato.int
  6. Europäisches Parlament: EU Artificial Intelligence Act (2024): eur-lex.europa.eu
  7. IKRK: „Autonome Waffensysteme — IKRK-Position" (2023): icrc.org
  8. DSN (Direktion Staatsschutz und Nachrichtendienst): Jahresbericht 2024: dsn.gv.at
  9. CERT.at — Austrian Computer Emergency Response Team: cert.at
  10. ENISA: „Threat Landscape 2024" (Oktober 2024): enisa.europa.eu
  11. European Defence Agency: AI in Defence Overview (2025): eda.europa.eu
  12. C4ISRNET: „Ukraine's AI-guided drones bypass GPS jamming through computer vision" (2024): c4isrnet.com