Eine Kampfdrohne ist ein unbemanntes Fluggerät zu Kampfzwecken. Sie ist Unterklasse des Kampfroboters. Der Einsatz reicht von vollständig fernsteuerbaren Langstreckendrohnen (Human-in-the-loop) über teilautonome Loitering Munitions (Human-on-the-loop) bis hin zu vollautonomen Systemen mit KI-gestützter Zielerkennung (LAWS).

Generationen (anonymisiert)

Erste Generation (ab 2001). Große Langstreckendrohnen aus US-amerikanischer Produktion mit satellitengestützter Fernsteuerung und präzisionsgelenkten Raketen. Einsatz insbesondere in asymmetrischen Konflikten ab Afghanistan/Irak. Cockpit und Waffenfreigabe beim Operator; autonome Navigation, kein autonomer Letalentscheid.

Zweite Generation (ab ca. 2015). Mittlere Kampfdrohnen aus türkischer Produktion, eingesetzt in mehreren regionalen Konflikten (Nagorny-Karabach, Syrien, Libyen, Ukraine). Kostengünstiger, massentauglicher, weiterhin mit menschlicher Waffenfreigabe.

Dritte Generation (ab ca. 2020). Loitering Munitions (Sprengdrohnen) mit autonomer Navigation, Objekterkennung und teilautonomer Zielauswahl. Mehrere Modelle US-amerikanischer, russischer und türkischer Herkunft bekannt. Im Regelfall Human-on-the-loop; in Grenzfällen Human-out-of-the-loop.

Vierte Generation (ab ca. 2023). KI-gestützte Zielbilderkennung, adaptive Koordinationsalgorithmen, Anti-Jamming-Fähigkeit. In mehreren Fällen (siehe LAWS) dokumentierter vollautonomer Letaleinsatz.

Die wichtigsten Einsatzszenarien 2024–2026

  • Ukraine-Krieg (seit 2022). Massiver Einsatz verschiedener Drohnenklassen auf beiden Seiten. Dokumentierter erster autonomer KI-Letalangriff der Kriegsgeschichte im Herbst 2023 (BBC, New Scientist). KI-Zielerkennung, Schwarmkoordination, Bildklassifikation.
  • Gaza/Mittlerer Osten. Einsatz KI-gestützter Zielidentifikationssysteme mit dokumentierten humanitären Folgen (The Guardian 2024).
  • Libyen 2020. UN-Panel-dokumentierter erster öffentlicher LAWS-Einsatz gegen Menschen (S/2021/229).

Personalontologische Bewertung

Wie beim Kampfroboter gilt: Die Drohne selbst ist moralisch neutral — Werkzeug. Entscheidend ist, ob sich in ihrem Einsatz personale Verantwortung realisiert oder auflöst.

  • Human-in-the-loop: Verantwortungszurechnung intakt. Der Operator entscheidet, schießt, verantwortet.
  • Human-on-the-loop: Verantwortungszurechnung belastet. Die Reaktionszeit zur Intervention schrumpft; die psychologische Eskalationsbereitschaft zur Freigabe steigt (Studien zu automation bias, z. B. Parasuraman/Riley 1997).
  • Voll-autonom: Verantwortungszurechnung zerbricht (Verantwortungslücke nach Sparrow 2007). Die Personalontologie lehnt diesen Modus kategorisch ab, weil er strukturell Personvergessenheit institutionalisiert.

Ontologische Einordnung

Oberbegriffe: Kampfroboter, Roboter

Typische Autonomiegrade: Alle vier Stufen, je nach Modell

Kapitelzuordnung: Kapitel 5: Personvergessenheit

Siehe auch

Quellenangaben: Sparrow, Robert (2007): „Killer Robots”. Journal of Applied Philosophy 24(1), S. 62–77.

Weitere Quellen:

  • Parasuraman, Raja / Riley, Victor (1997): „Humans and Automation: Use, Misuse, Disuse, Abuse”. Human Factors 39(2), S. 230–253.
  • United Nations Panel of Experts on Libya (2021): Final Report S/2021/229.
  • BBC News (2023): Berichte zu KI-gestützten autonomen Drohnenangriffen im Ukraine-Krieg.
  • New Scientist (2023): Bericht zum ersten dokumentierten autonomen KI-Letalangriff.
  • Bode, Ingvild / Watts, Tom (2023): Loitering Munitions and Unpredictability. Center for War Studies Research Report.
  • Chamayou, Grégoire (2015): A Theory of the Drone. New Press (philosophische Grundlagenkritik).
  • The Guardian (2024): Berichterstattung zu KI-Zielsystemen in Gaza.