Ein letales autonomes Waffensystem ist ein Waffensystem, das ohne meaningful human control (bedeutungsvolle menschliche Kontrolle) Zielauswahl und Bekämpfung selbstständig ausführt. Das Internationale Komitee vom Roten Kreuz (IKRK 2021) definiert: „an autonomous weapon system is any weapon system with autonomy in its critical functions — that is, a weapon system that can select (i.e. search for or detect, identify, track, select) and attack (i.e. use force against, neutralize, damage or destroy) targets without human intervention.”
Dokumentierte Einsätze (anonymisiert)
Bis 2020 gab es keinen öffentlich bestätigten LAWS-Einsatz. Das hat sich seitdem geändert:
- März 2020, Libyen: Der UN-Expertenpanel-Bericht S/2021/229 (Abschnitt „Lethal autonomous weapon systems”) dokumentiert den Einsatz einer türkischen Quadcopter-Loitering-Drohne, die zurückweichende logistische Konvois in einer „fire, forget and find”-Logik engagierte — without requiring data connectivity between the operator and the munition. Dies gilt als erster öffentlich bekannter Einsatz einer autonomen Letalwaffe gegen Menschen ohne menschliche Freigabe. Der Hersteller bestreitet die Einstufung.
- Herbst 2023, Ukraine: Eine ukrainische Quadcopter-Drohne führte laut Berichten der BBC und New Scientist den ersten dokumentierten autonomen KI-Letalangriff der Kriegsgeschichte aus.
Der personalontologische Einwand
Die Personalontologie lehnt LAWS nicht wegen ihrer technischen Gestalt ab, sondern wegen ihrer strukturellen Wirkung: Sie vollziehen die Tötung eines Menschen, ohne dass eine Person in der Tötungsentscheidung anwesend ist. Das hat drei Konsequenzen:
- Die Verantwortungslücke (Sparrow 2007). Weder Programmierer noch Operator noch Kommandeur noch Maschine ist klassisch zurechenbar.
- Die Reduktion des Opfers auf Klassifikation. Wo das Tötungsurteil auf probabilistischer Zielklassifikation beruht, wird das Opfer nicht als Jemand wahrgenommen, sondern als Merkmalsbündel identifiziert. Das ist eine tiefe Form der Personvergessenheit.
- Die Erosion des Soldaten als sittlichem Akteur. Die lange Tradition des just war setzte den Soldaten als sittliches Subjekt voraus, das seine Waffen verantwortet. LAWS machen diese personale Instanz überflüssig — und das ist ein fundamentaler Bruch.
Internationale Regulierung
Die UN GGE LAWS verhandelt seit 2014 im Rahmen des CCW-Übereinkommens. Am 6. November 2025 nahm das First Committee der UN-Generalversammlung eine Resolution an, die ein rechtlich bindendes Verbot bestimmter LAWS anstrebt — 164 Ja-Stimmen, 6 Nein (Belarus, Burundi, Nordkorea, Israel, Russland, USA), 7 Enthaltungen. UN-Generalsekretär António Guterres hat ein Verhandlungsziel bis Ende 2026 gesetzt. Die 7. CCW-Review-Konferenz 2026 soll verbindliche Normen beschließen.
Die Position des Heiligen Stuhls (seit 2016 aktiv in den GGE-Verhandlungen) geht klar in Richtung eines präventiven Verbots vollautonomer Letalsysteme — mit ausdrücklicher Bezugnahme auf die Unveräußerlichkeit der personalen Würde. Papst Franziskus hat diese Position in der Rede an die G7 2024 (Borgo Egnazia) bekräftigt: „Keine Maschine sollte jemals darüber entscheiden, einem Menschen das Leben zu nehmen” (im Original: „No machine should ever choose to take the life of a human being”).
Die Gegenargumente — und warum sie nicht tragen
- LAWS sind präziser und töten daher weniger Zivilisten. Empirisch umstritten; die Präzision des Zielens ist nicht identisch mit der Präzision des Urteils über legitime Ziele.
- Ein Verbot ist unrealistisch, weil die Technologie bereits existiert. Auch Chemiewaffen existierten, als sie verboten wurden (Genfer Protokoll 1925).
- Soldatensparen durch Automatisierung. Gilt nur für die eigenen Soldaten und senkt die Schwelle zum Krieg systematisch (asymmetrische Eskalationsrisiken).
Ontologische Einordnung
Oberbegriffe: Kampfroboter, Roboter
Typischer Autonomiegrad: Voll-autonom
Erzeugt typisch: Verantwortungslücke
Kapitelzuordnung: Kapitel 5: Personvergessenheit
Siehe auch
- Kampfroboter
- Kampfdrohne
- Drohnenschwarm
- Verantwortungslücke
- Autonomiegrad
- UN GGE LAWS
- Rome Call for AI Ethics
- Krieg
- Verantwortung
- Personvergessenheit
- Instrumentalisierung
- Robert Sparrow
Quellenangaben: Sparrow, Robert (2007): „Killer Robots”. Journal of Applied Philosophy 24(1), S. 62–77.
Weitere Quellen:
- United Nations Panel of Experts on Libya (2021): Final Report S/2021/229, Abs. 63 (dokumentiert autonomen Drohneneinsatz ohne menschliche Freigabe).
- International Committee of the Red Cross (2021): ICRC position on autonomous weapon systems.
- United Nations General Assembly First Committee (2025): Resolution on Lethal Autonomous Weapons Systems, 6. November 2025 (164 Ja / 6 Nein / 7 Enth.).
- United Nations Secretary-General (2023): A New Agenda for Peace, Policy Brief 9 (Forderung Verbot LAWS bis 2026).
- Heyns, Christof (2013): Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions. UN-Dok. A/HRC/23/47.
- BBC News (2023): Berichterstattung zum ersten dokumentierten KI-autonomen Letalangriff im Ukraine-Krieg.
- New Scientist (2023): Berichterstattung zur autonomen Zielauswahl in modernen Drohnenkonflikten.
- Holy See (2016 ff.): Statements to the GGE on LAWS, Geneva.
- Pope Francis (2024): Address at G7 Summit, Borgo Egnazia, 14. Juni 2024.