Im Oktober 2023 berichtete die israelische Zeitung +972 Magazine über ein System namens "Lavender". Es soll von israelischen Geheimdiensten eingesetzt worden sein, um KI-generierte Ziellisten für Luftangriffe in Gaza zu erstellen. Zehntausende Namen. Automatisch. Mit einer dokumentierten Fehlerquote, die Menschenrechtsjuristen bis heute beschäftigt.
Lavender ist kein Science-Fiction. Es ist die Gegenwart — und der Vorbote einer Entwicklung, die das Völkerrecht, die Militärdoktrin und die politische Kontrolle über Streitkräfte fundamental herausfordert.
Der OODA-Loop und warum Millisekunden töten
John Boyd, amerikanischer Kampfpilot und Militärtheoretiker, entwickelte in den 1970ern das Konzept des OODA-Loops: Observe, Orient, Decide, Act. Wer diesen Zyklus schneller durchläuft als der Gegner, gewinnt. Nicht weil er stärker ist — sondern weil der Gegner immer einen Schritt hinterher ist.
KI-Systeme komprimieren diesen Loop radikal. Ein Mensch braucht Sekunden bis Minuten für eine taktische Entscheidung. Ein KI-System: Millisekunden. Auf dem modernen Schlachtfeld, wo Drohnen, Artillerie und elektronische Kriegsführung gleichzeitig agieren, ist dieser Unterschied existenziell.
"Speed kills. Aber im 21. Jahrhundert tötet nicht mehr die Geschwindigkeit der Waffe — sondern die Geschwindigkeit der Entscheidung."
Das Militär nennt diesen Wettbewerb "Decision Superiority". Wer die Informationslage schneller versteht und in Aktion umsetzt, dominiert. KI ist dabei kein Hilfsmittel mehr — sie ist die Voraussetzung.
Battle Management Systeme: Wo KI schon heute wirkt
Battle Management Systeme (BMS) sind die digitale Nervenzentrale moderner Streitkräfte. Sie aggregieren Daten aus allen Quellen — Sensoren, Satelliten, Aufklärungsdrohnen, Funkkommunikation — und erstellen ein gemeinsames Lagebild: das Common Operational Picture (COP).
SITAWARE, entwickelt vom dänischen Unternehmen Systematic, ist eines der meistgenutzten BMS in NATO-kompatiblen Streitkräften. Es ermöglicht Kommandeuren auf allen Ebenen — vom Zugführer bis zum Divisionskommandeur — Echtzeit-Lagebewusstsein. Deutschland, Dänemark, Norwegen, die Niederlande nutzen es. Die Bundeswehr hat es in der jüngsten Modernisierungswelle tief integriert.
- Echtzeit-Tracking eigener und feindlicher Kräfte (Blue/Red Force Tracking)
- Automatische Fusionierung von SIGINT, IMINT und HUMINT
- Kollaborative Planung über verteilte Stäbe
- Logistik- und Nachschuboptimierung
- Integriertes Kommunikationsmanagement
Die KI-Integration ist noch im Frühstadium — aber sie beschleunigt sich. Was heute Entscheidungsunterstützung ist, wird morgen Entscheidungsempfehlung. Übermorgen: autonome Entscheidung mit menschlicher Freigabeoption. Und dann?
Lethal Autonomous Weapons Systems: Die rote Linie
LAWS — Lethal Autonomous Weapons Systems — sind Waffensysteme, die ohne menschlichen Eingriff im Einzelfall töten können. Kein Pilot. Kein Soldat am Abzug. Nur ein Algorithmus, der entscheidet: Ziel bestätigt. Schuss freigegeben.
Seit Jahren verhandeln Staaten im Rahmen der UN-Waffenkonvention (CCW) über ein Verbot oder eine Regulierung von LAWS. Ohne Ergebnis. Die technologische Entwicklung hat die diplomatische Debatte längst überholt.
Russland und China blockieren verbindliche internationale Normen. Die USA halten an der Position "meaningful human control" fest — aber die Definition von "meaningful" wird zunehmend dehnbarer. Israel hat mit Systemen wie Lavender de facto die rote Linie schon überschritten.
Das Accountability-Problem: Wer haftet wenn KI tötet?
Humanitäres Völkerrecht — die Genfer Konventionen, das Haager Recht — basiert auf einem Grundprinzip: Es gibt einen Menschen, der verantwortlich ist. Den Soldaten, den Offizier, den Kommandeur. Dieser Mensch kann für Kriegsverbrechen zur Rechenschaft gezogen werden.
Wenn ein Algorithmus die Zielauswahl trifft — wer ist dann verantwortlich? Der Programmierer? Der Beschaffungsverantwortliche? Der Kommandeur, der das System genehmigt hat? Der Staat, der es einsetzt?
Rechtswissenschaftler nennen das den "accountability gap" — eine Lücke im Rechtsrahmen, in der Kriegsverbrechen passieren können, ohne dass Verantwortung klar zuordenbar ist. Diese Lücke wird mit jedem KI-System größer.
Österreich und die KI-Sicherheitspolitik: Eine ehrliche Bestandsaufnahme
Österreich ist kein Akteur in der militärischen KI-Entwicklung. Das ist die Realität. Das Bundesheer modernisiert, aber es hat weder die Budgets noch die Industriebasis, um im Technologierennen der Großmächte mitzuhalten.
Das bedeutet nicht, dass Österreich keine sicherheitspolitische Position braucht. Im Gegenteil.
Als neutraler Staat mit starker diplomatischer Tradition hat Österreich die Möglichkeit — und die Verpflichtung — eine normative Führungsrolle in der internationalen Debatte über autonome Waffensysteme einzunehmen. Wien als Verhandlungsort. Österreich als ehrlicher Makler zwischen den Blöcken.
- Aktive Unterstützung eines verbindlichen internationalen Rahmens für LAWS
- Einrichtung eines nationalen Kompetenzzentrums für KI & Sicherheit
- Integration von KI-Ethik in militärische Ausbildung und Doktrin
- Engagement in EU-Initiativen zur strategischen KI-Autonomie (Airbus-Modell für Verteidigung)
- Transparenz über eigene BMS-Beschaffung und -nutzung gegenüber dem Parlament
Die eigentliche Frage: Kontrolle über Maschinen, die töten
Demokratische Kontrolle über Streitkräfte ist ein Grundpfeiler des Rechtsstaates. Parlamente genehmigen Auslandseinsätze. Gerichte prüfen Verhältnismäßigkeit. Staatsanwälte ermitteln bei Kriegsverbrechen.
All das setzt voraus, dass Menschen Entscheidungen treffen — und dafür geradestehen. KI-Systeme untergraben diese Voraussetzung nicht weil sie böse sind. Sondern weil die rechtlichen, institutionellen und moralischen Strukturen, die demokratische Kontrolle garantieren, für eine Welt menschlicher Entscheidungen gebaut wurden.
Die eigentliche sicherheitspolitische Herausforderung unserer Zeit ist nicht die Drohne, die fliegt. Es ist die Frage, ob wir die Institutionen bauen, die auch dann noch funktionieren, wenn die Waffe nicht mehr auf einen Befehl wartet — sondern auf einen Algorithmus.
Diese Frage lässt sich nicht an Technologen delegieren. Sie ist zutiefst politisch. Und sie braucht politische Antworten — jetzt, nicht wenn es zu spät ist.