Die Group of Governmental Experts on Lethal Autonomous Weapons Systems (UN GGE LAWS) ist das offizielle Verhandlungsforum der Vereinten Nationen zur völkerrechtlichen Behandlung letaler autonomer Waffensysteme. Sie tagt in Genf im Rahmen der Convention on Certain Conventional Weapons (CCW) und ist seit 2013 der zentrale diplomatische Ort, an dem die Staatengemeinschaft um Regeln oder ein Verbot autonomer Letalsysteme ringt.
Entstehung und Mandat
Am Anfang standen informal meetings of experts der CCW-Vertragsparteien zu LAWS (ab 2014). Nach drei Jahren fachlicher Vorbereitung beschlossen die Vertragsstaaten auf der Fünften CCW-Überprüfungskonferenz im Dezember 2016, eine formelle Group of Governmental Experts einzurichten. Ihr Mandat: Elemente eines normativen und operativen Rahmens für emerging technologies in the area of lethal autonomous weapons systems zu erarbeiten. Seit 2017 tagt die GGE regelmäßig in Genf; ihre Arbeit wird periodisch von den CCW-Vertragsstaatenkonferenzen verlängert.
Die Streitlinien
Die Debatten in der GGE verlaufen entlang dreier Hauptachsen:
Was soll reguliert werden? Eine Staatengruppe — darunter Österreich, Neuseeland, Brasilien, der Heilige Stuhl, zahlreiche Staaten des globalen Südens und große Teile der internationalen Zivilgesellschaft — fordert ein rechtlich bindendes Verbot vollautonomer Letalsysteme. Eine zweite Gruppe — darunter die USA, Russland, Israel, Großbritannien, Südkorea und Australien — lehnt ein Verbot ab und verweist auf bestehendes humanitäres Völkerrecht und auf die technische Schwierigkeit einer präzisen Definition. Eine dritte Position, vertreten etwa von Deutschland und Frankreich, plädiert für eine politische Erklärung und gezielte Selbstverpflichtungen.
Wie wird meaningful human control definiert? Der Begriff bedeutungsvolle menschliche Kontrolle ist das zentrale Scharnier. Seine Auslegung reicht von formaler Anwesenheit eines Operators bis hin zur Forderung einer substanziellen Entscheidungsbeteiligung der Person bei jeder einzelnen Zielauswahl. Das Internationale Komitee vom Roten Kreuz (IKRK) hat sich 2021 für eine enge, substantielle Auslegung ausgesprochen.
Welche Systeme fallen unter den Begriff? Die Bandbreite reicht von stationären Punktverteidigungssystemen (unstrittig zulässig) über loiternde Munition (strittig) bis zu hypothetischen vollautonomen Kampfrobotern (unstrittig problematisch). Die GGE hat keine endgültige Definition verabschiedet; stattdessen hat sie elf Guiding Principles konsentiert, die 2019 von den Vertragsstaaten angenommen wurden.
Die elf Leitprinzipien (2019)
Die von den CCW-Vertragsstaaten angenommenen Guiding Principles halten unter anderem fest: Das humanitäre Völkerrecht gilt vollständig auch für autonome Waffensysteme; die Verantwortlichkeit darf nicht auf Maschinen übertragen werden; die menschliche Verantwortlichkeit muss durch eine verantwortliche Befehlskette gesichert bleiben; Risikobewertungen und vertrauensbildende Maßnahmen sollen etabliert werden; und Staaten sollen Übersetzbarkeit von Prüfverfahren anstreben. Kritiker merken an, dass die Prinzipien unverbindlich sind und keine operativen Verpflichtungen begründen.
Der Übergang auf die Generalversammlung
Weil die GGE im Konsensverfahren arbeitet und einzelne Staaten Fortschritte blockieren können, haben Befürworter eines Verbots das Thema in die UN-Generalversammlung verlagert. Bereits 2023 nahm die Generalversammlung eine erste Resolution an, die den UN-Generalsekretär bat, Staatenpositionen einzuholen. Am 6. November 2025 nahm der First Committee der Generalversammlung eine weitergehende Resolution an, die ein rechtlich bindendes Verbot bestimmter LAWS anstrebt — mit 164 Ja-Stimmen gegen 6 Nein (Belarus, Burundi, Nordkorea, Israel, Russland, USA) und 7 Enthaltungen. UN-Generalsekretär António Guterres hat bereits 2023 im Policy Brief 9 zu A New Agenda for Peace ein Verbot bis Ende 2026 angestrebt.
Die Position des Heiligen Stuhls
Der Heilige Stuhl ist in der GGE seit Beginn der informalen Meetings aktiv und gehört zu den deutlichsten Stimmen für ein präventives Verbot vollautonomer Letalsysteme. Seine Interventionen stützen sich auf die Unveräußerlichkeit der personalen Würde und auf die Überzeugung, dass Entscheidungen über Leben und Tod nicht an nicht-personale Systeme delegiert werden dürfen. Papst Franziskus hat diese Position in der Rede an die G7 2024 (Borgo Egnazia) pointiert zusammengefasst.
Ontologische Einordnung
Regulierungsgegenstand: Letales autonomes Waffensystem, Kampfroboter, Kampfdrohne, Drohnenschwarm
Verhandelt: Meaningful human control, Verbotsregime, Selbstverpflichtungen
Kapitelzuordnung: Kapitel 5: Personvergessenheit
Siehe auch
- Letales autonomes Waffensystem
- Kampfroboter
- Kampfdrohne
- Drohnenschwarm
- Verantwortungslücke
- Autonomiegrad
- Rome Call for AI Ethics
- Krieg
- KI-Ethik
- Robert Sparrow
Quellenangaben: Recherche 2026; UN- und CCW-Primärdokumente.
Weitere Quellen:
- UN Office for Disarmament Affairs: Background on LAWS in the CCW. Genf (fortlaufend).
- CCW Group of Governmental Experts (2019): Report of the 2019 session (CCW/GGE.1/2019/3), Annex IV: Guiding Principles.
- International Committee of the Red Cross (2021): ICRC position on autonomous weapon systems. Genf.
- United Nations General Assembly First Committee (2025): Resolution on Lethal Autonomous Weapons Systems, 6. November 2025 (164 Ja / 6 Nein / 7 Enth.).
- United Nations Secretary-General (2023): A New Agenda for Peace, Policy Brief 9.
- Heyns, Christof (2013): Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions. UN-Dok. A/HRC/23/47.
- Holy See (2016 ff.): Statements to the GGE on LAWS, Genf.