Die Verantwortungslücke (responsibility gap) bezeichnet das Phänomen, dass bei Schäden durch autonome oder lernende Systeme keine personale Instanz mehr im klassischen Sinn zur Rechenschaft gezogen werden kann. Der Begriff wurde von Andreas Matthias 2004 in Ethics and Information Technology geprägt und von Robert Sparrow 2007 an der militärischen Anwendung letaler autonomer Systeme zugespitzt.

Die Struktur der Lücke

Wenn ein selbstlernendes oder autonom handelndes System einen Schaden verursacht, zerfällt die klassische Zurechnung auf mehrere mögliche Instanzen, die jeweils für sich genommen nicht vollständig haftbar sind:

  1. Der Hersteller/Programmierer. Er hat das System entworfen, aber nicht die konkrete Aktion vorhergesehen — insbesondere bei maschinellem Lernen hat das System Verhaltensweisen entwickelt, die in den Trainingsdaten nicht explizit enthalten waren.
  2. Der Betreiber/Operator. Er hat das System eingesetzt, aber die konkrete Entscheidung nicht freigegeben, weil das System autonom handelt.
  3. Der Kommandeur/Auftraggeber. Er hat den Einsatzrahmen gesetzt, aber nicht die Einzelaktion bestimmt.
  4. Die Maschine selbst. Sie hat gehandelt — aber als Roboter ist sie etwas, nicht Jemand. Sie kann nicht schuldfähig sein, weil sie weder Freiheit noch Gewissen noch Vernunft besitzt.

Das Ergebnis: Der Schaden ist geschehen, aber keine personale Zurechnungs­adresse trägt die volle Verantwortung. Die Verantwortung ist strukturell zersplittert.

Warum das kein technisches Problem ist

Die Versuchung liegt nahe, die Lücke technisch zu schließen — etwa durch bessere Protokollierung, durch black box recorder für KI-Systeme oder durch formale Haftungs­regeln. Die Personalontologie zeigt, warum das nur partiell gelingen kann: Verantwortung ist kein bloß juristisches Konstrukt, sondern ergibt sich aus der personalen Struktur des Handelns. Nach dem Prinzip agere sequitur esse kann nur handeln — und damit nur verantworten — wer ein Sein hat, das Handeln hervorbringen kann: ein Wesen mit Vernunft, Freiheit und sittlicher Selbstbestimmung. Genau das fehlt jeder Maschine. Die Zurechnung kann also immer nur auf die Person hinter der Maschine zurückgeführt werden — und wo diese Rückführung strukturell unterbrochen wird, entsteht eine echte Lücke, keine bloß formale.

Vier Typen nach Santoni de Sio und Mecacci

Santoni de Sio und Mecacci (2021) unterscheiden vier Erscheinungs­formen:

  1. Lücke der Zurechnung (culpability gap): Niemand hat moralisch schuldhaft gehandelt.
  2. Lücke der Haftung (moral liability gap): Die Schadensersatz­pflicht lässt sich nicht eindeutig zuordnen.
  3. Lücke der öffentlichen Rechenschaft (public accountability gap): Institutionelle Verantwortlichkeit bleibt unklar.
  4. Lücke der aktiven Verantwortung (active responsibility gap): Niemand fühlt sich proaktiv für das Gesamt­system zuständig.

Jede dieser Lücken korrespondiert mit einem Aspekt dessen, was in der klassischen Ethik als Verantwortung einer Person zusammen­gehalten war — und was in verteilten soziotechnischen Systemen auseinander­fällt.

Die militärische Zuspitzung

Am schärfsten zeigt sich die Lücke bei letalen autonomen Waffensystemen. Sparrow argumentiert: Das humanitäre Völkerrecht (jus in bello) setzt voraus, dass jede Tötung einer personal identifizierbaren Instanz zurechenbar ist. Wo diese Zurechnung strukturell unmöglich wird, ist der Einsatz nicht nur ethisch, sondern völkerrechtlich unzulässig. Daraus leitet er das Verbotspostulat ab: Systeme, die eine solche Zurechnung ausschließen, müssen verboten werden. Die UN-Generalversammlung hat diese Position am 6. November 2025 (First Committee, 164 Ja / 6 Nein / 7 Enth.) institutionell bestätigt.

Die Antwort der Personalontologie

Die Personalontologie antwortet auf die Verantwortungslücke nicht primär mit neuen Regeln, sondern mit einer Schutzlinie: Wo Verantwortung strukturell verschwinden würde, ist Autonomisierung zu begrenzen. Das heißt praktisch: Autonomiegrade müssen so gewählt werden, dass eine Person jederzeit bedeutungsvoll zurechenbar bleibt (meaningful human control). Die Lücke ist dann kein zu schließender technischer Defekt, sondern eine Grenze, an der die Maschine halt zu machen hat.

Ontologische Einordnung

Entsteht typisch bei: Vollautonomen Systemen, lernenden Systemen ohne meaningful human control

Ursächlich für: Erosion der Verantwortung, Aushöhlung des Rechts

Gegenmittel: Human-in-the-loop, meaningful human control

Kapitelzuordnung: Kapitel 5: Personvergessenheit

Siehe auch

Quellenangaben: Bexten 2017, S. 85–110 (Personvergessenheit und Technik); Recherche 2026.

Weitere Quellen:

  • Matthias, Andreas (2004): „The responsibility gap: Ascribing responsibility for the actions of learning automata”. Ethics and Information Technology 6(3), S. 175–183.
  • Sparrow, Robert (2007): „Killer Robots”. Journal of Applied Philosophy 24(1), S. 62–77.
  • Santoni de Sio, Filippo / Mecacci, Giulio (2021): „Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them”. Philosophy & Technology 34, S. 1057–1084.
  • International Committee of the Red Cross (2021): ICRC position on autonomous weapon systems. Genf.
  • Heyns, Christof (2013): Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions: Lethal autonomous robotics and the protection of life. UN-Dok. A/HRC/23/47.