Die Group of Governmental Experts on Lethal Autonomous Weapons Systems (UN GGE LAWS) ist das offizielle Verhandlungsforum der Vereinten Nationen zur völkerrechtlichen Behandlung letaler autonomer Waffensysteme. Sie tagt in Genf im Rahmen der Convention on Certain Conventional Weapons (CCW) und ist seit 2013 der zentrale diplomatische Ort, an dem die Staaten­gemeinschaft um Regeln oder ein Verbot autonomer Letalsysteme ringt.

Entstehung und Mandat

Am Anfang standen informal meetings of experts der CCW-Vertragsparteien zu LAWS (ab 2014). Nach drei Jahren fachlicher Vorbereitung beschlossen die Vertragsstaaten auf der Fünften CCW-Überprüfungskonferenz im Dezember 2016, eine formelle Group of Governmental Experts einzurichten. Ihr Mandat: Elemente eines normativen und operativen Rahmens für emerging technologies in the area of lethal autonomous weapons systems zu erarbeiten. Seit 2017 tagt die GGE regelmäßig in Genf; ihre Arbeit wird periodisch von den CCW-Vertragsstaaten­konferenzen verlängert.

Die Streitlinien

Die Debatten in der GGE verlaufen entlang dreier Hauptachsen:

Was soll reguliert werden? Eine Staaten­gruppe — darunter Österreich, Neuseeland, Brasilien, der Heilige Stuhl, zahlreiche Staaten des globalen Südens und große Teile der internationalen Zivilgesellschaft — fordert ein rechtlich bindendes Verbot vollautonomer Letalsysteme. Eine zweite Gruppe — darunter die USA, Russland, Israel, Großbritannien, Südkorea und Australien — lehnt ein Verbot ab und verweist auf bestehendes humanitäres Völkerrecht und auf die technische Schwierigkeit einer präzisen Definition. Eine dritte Position, vertreten etwa von Deutschland und Frankreich, plädiert für eine politische Erklärung und gezielte Selbst­verpflichtungen.

Wie wird meaningful human control definiert? Der Begriff bedeutungsvolle menschliche Kontrolle ist das zentrale Scharnier. Seine Auslegung reicht von formaler Anwesenheit eines Operators bis hin zur Forderung einer substanziellen Entscheidungs­beteiligung der Person bei jeder einzelnen Zielauswahl. Das Internationale Komitee vom Roten Kreuz (IKRK) hat sich 2021 für eine enge, substantielle Auslegung ausgesprochen.

Welche Systeme fallen unter den Begriff? Die Bandbreite reicht von stationären Punktverteidigungs­systemen (unstrittig zulässig) über loiternde Munition (strittig) bis zu hypothetischen vollautonomen Kampfrobotern (unstrittig problematisch). Die GGE hat keine endgültige Definition verabschiedet; stattdessen hat sie elf Guiding Principles konsentiert, die 2019 von den Vertragsstaaten angenommen wurden.

Die elf Leitprinzipien (2019)

Die von den CCW-Vertragsstaaten angenommenen Guiding Principles halten unter anderem fest: Das humanitäre Völkerrecht gilt vollständig auch für autonome Waffensysteme; die Verantwortlichkeit darf nicht auf Maschinen übertragen werden; die menschliche Verantwortlichkeit muss durch eine verantwortliche Befehlskette gesichert bleiben; Risikobewertungen und vertrauensbildende Maßnahmen sollen etabliert werden; und Staaten sollen Übersetzbarkeit von Prüf­verfahren anstreben. Kritiker merken an, dass die Prinzipien unverbindlich sind und keine operativen Verpflichtungen begründen.

Der Übergang auf die Generalversammlung

Weil die GGE im Konsens­verfahren arbeitet und einzelne Staaten Fortschritte blockieren können, haben Befürworter eines Verbots das Thema in die UN-Generalversammlung verlagert. Bereits 2023 nahm die Generalversammlung eine erste Resolution an, die den UN-Generalsekretär bat, Staaten­positionen einzuholen. Am 6. November 2025 nahm der First Committee der Generalversammlung eine weitergehende Resolution an, die ein rechtlich bindendes Verbot bestimmter LAWS anstrebt — mit 164 Ja-Stimmen gegen 6 Nein (Belarus, Burundi, Nordkorea, Israel, Russland, USA) und 7 Enthaltungen. UN-Generalsekretär António Guterres hat bereits 2023 im Policy Brief 9 zu A New Agenda for Peace ein Verbot bis Ende 2026 angestrebt.

Die Position des Heiligen Stuhls

Der Heilige Stuhl ist in der GGE seit Beginn der informalen Meetings aktiv und gehört zu den deutlichsten Stimmen für ein präventives Verbot vollautonomer Letalsysteme. Seine Interventionen stützen sich auf die Unveräußerlichkeit der personalen Würde und auf die Überzeugung, dass Entscheidungen über Leben und Tod nicht an nicht-personale Systeme delegiert werden dürfen. Papst Franziskus hat diese Position in der Rede an die G7 2024 (Borgo Egnazia) pointiert zusammengefasst.

Ontologische Einordnung

Regulierungsgegenstand: Letales autonomes Waffensystem, Kampfroboter, Kampfdrohne, Drohnenschwarm

Verhandelt: Meaningful human control, Verbotsregime, Selbstverpflichtungen

Kapitelzuordnung: Kapitel 5: Personvergessenheit

Siehe auch

Quellenangaben: Recherche 2026; UN- und CCW-Primärdokumente.

Weitere Quellen:

  • UN Office for Disarmament Affairs: Background on LAWS in the CCW. Genf (fortlaufend).
  • CCW Group of Governmental Experts (2019): Report of the 2019 session (CCW/GGE.1/2019/3), Annex IV: Guiding Principles.
  • International Committee of the Red Cross (2021): ICRC position on autonomous weapon systems. Genf.
  • United Nations General Assembly First Committee (2025): Resolution on Lethal Autonomous Weapons Systems, 6. November 2025 (164 Ja / 6 Nein / 7 Enth.).
  • United Nations Secretary-General (2023): A New Agenda for Peace, Policy Brief 9.
  • Heyns, Christof (2013): Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions. UN-Dok. A/HRC/23/47.
  • Holy See (2016 ff.): Statements to the GGE on LAWS, Genf.