Der Autonomiegrad bezeichnet das Maß, in dem ein technisches System Entscheidungen ohne menschliches Zutun trifft. Für die Personalontologie ist er keine rein technische Größe, sondern die entscheidende ethische Schwelle: Je weiter die Person aus der Entscheidung herausrückt, desto ungreifbarer wird die Verantwortung — bis hin zur Verantwortungslücke.

Die vier Stufen

Die militärische und ethische Debatte (NATO, IKRK, Human Rights Watch) hat sich auf eine vierstufige Taxonomie verständigt:

Human-in-the-loop. Das System schlägt vor, die Person entscheidet. Jede einzelne kritische Aktion — etwa die Zielfreigabe einer Waffe oder die Verabreichung einer Medikation — erfordert eine aktive menschliche Bestätigung. Der Mensch ist in der Entscheidungsschleife; ohne seinen Input steht das System still.

Human-on-the-loop. Das System handelt selbstständig, die Person beobachtet und kann eingreifen. Der Mensch ist auf der Schleife, also über ihr — er überwacht den Ablauf und hat Vetorecht, aber die Standardbewegung ist autonom. Kritisch: Die Reaktionszeit der Person ist begrenzt, und bei hoher Ereignisdichte (Drohnenschwarm, Börsenhandel) wird das Veto faktisch unmöglich.

Human-in-command. Die Person setzt Einsatzrahmen, Regeln und Grenzen, greift aber nicht in einzelne Aktionen ein. Der Mensch ist im Kommando — zuständig für das Ganze, nicht für den Einzelvorgang. Diese Stufe wird häufig für soziale Interaktionsroboter, Pflegeassistenz oder Fahrassistenzsysteme veranschlagt, wenn die Einzelaktionen unkritisch sind, das Gesamtszenario aber menschlich verantwortet bleiben muss.

Vollautonom. Weder Freigabe noch Überwachung noch Rahmensetzung in der konkreten Situation. Das System wählt Ziel, Mittel und Ausführung selbst. Bei letalen Systemen entspricht das der Definition eines letalen autonomen Waffensystems und erzeugt jene strukturelle Verantwortungslücke, die Sparrow 2007 benannt hat.

Die personalontologische Schwelle

Zwischen Human-on-the-loop und Human-in-command verläuft eine weiche Grenze, zwischen Human-in-command und vollautonom eine harte. Der Grund ist nicht technisch, sondern personal: Solange die Person Rahmen, Regeln und Ziele setzt, bleibt sie als sittliches Subjekt im Geschehen präsent. Fällt auch das weg, vollzieht sich die Handlung ohne personale Instanz — und genau das widerspricht der Grundeinsicht, dass nur Personen Verantwortung tragen können (agere sequitur esse).

Die Forderung nach meaningful human control (bedeutungsvolle menschliche Kontrolle), die das Internationale Komitee vom Roten Kreuz und zahlreiche Staaten in den UN-GGE-LAWS-Verhandlungen eingebracht haben, zielt genau auf diese Schwelle: Kontrolle muss inhaltlich sein, nicht formal — ein Mensch, der nur Knöpfe bestätigt, ohne zu verstehen oder prüfen zu können, erfüllt die Anforderung nicht.

Anwendungsfelder

  • Militärische Systeme: Zielauswahl und Feuerfreigabe — hier ist die Schwelle am schärfsten, weil es um Leben geht (LAWS, Kampfdrohne, Drohnenschwarm).
  • Medizinische Systeme: Diagnose, Therapieempfehlung, Medikamentendosierung — Human-in-the-loop ist hier der klinische Standard.
  • Pflegerobotik: Körperliche Assistenz meist Human-in-the-loop, soziale Interaktion Human-in-command (Pflegeroboter).
  • Autonomes Fahren: SAE-Level 0–5 sind eine fachspezifische Ausdifferenzierung derselben Logik; Level 5 entspricht vollautonom.
  • Finanzmärkte: Algorithmischer Hochfrequenzhandel ist faktisch vollautonom; Human-on-the-loop existiert nur noch als Notabschaltung.

Ontologische Einordnung

Typisierung von: Künstlicher Agent, Roboter

Erzeugt bei vollautonomen Letalsystemen typisch: Verantwortungslücke

Kapitelzuordnung: Kapitel 5: Personvergessenheit

Siehe auch

Quellenangaben: Bexten 2017, S. 85–110 (Personvergessenheit in Technik); Recherche 2026.

Weitere Quellen:

  • International Committee of the Red Cross (2021): ICRC position on autonomous weapon systems. Genf.
  • Human Rights Watch / IHRC (2012 ff.): Losing Humanity — The Case against Killer Robots.
  • NATO Science & Technology Organization (2020): Human-Autonomy Teaming — Supporting Dynamically Adjustable Collaboration. Technical Report STO-TR-HFM-247. Neuilly-sur-Seine.
  • SAE International (2021): J3016_202104 — Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles.
  • Sparrow, Robert (2007): „Killer Robots”. Journal of Applied Philosophy 24(1), S. 62–77.