Eine Kampfdrohne ist ein unbemanntes Fluggerät zu Kampfzwecken. Sie ist Unterklasse des Kampfroboters. Der Einsatz reicht von vollständig fernsteuerbaren Langstreckendrohnen (Human-in-the-loop) über teilautonome Loitering Munitions (Human-on-the-loop) bis hin zu vollautonomen Systemen mit KI-gestützter Zielerkennung (LAWS).
Generationen (anonymisiert)
Erste Generation (ab 2001). Große Langstreckendrohnen aus US-amerikanischer Produktion mit satellitengestützter Fernsteuerung und präzisionsgelenkten Raketen. Einsatz insbesondere in asymmetrischen Konflikten ab Afghanistan/Irak. Cockpit und Waffenfreigabe beim Operator; autonome Navigation, kein autonomer Letalentscheid.
Zweite Generation (ab ca. 2015). Mittlere Kampfdrohnen aus türkischer Produktion, eingesetzt in mehreren regionalen Konflikten (Nagorny-Karabach, Syrien, Libyen, Ukraine). Kostengünstiger, massentauglicher, weiterhin mit menschlicher Waffenfreigabe.
Dritte Generation (ab ca. 2020). Loitering Munitions (Sprengdrohnen) mit autonomer Navigation, Objekterkennung und teilautonomer Zielauswahl. Mehrere Modelle US-amerikanischer, russischer und türkischer Herkunft bekannt. Im Regelfall Human-on-the-loop; in Grenzfällen Human-out-of-the-loop.
Vierte Generation (ab ca. 2023). KI-gestützte Zielbilderkennung, adaptive Koordinationsalgorithmen, Anti-Jamming-Fähigkeit. In mehreren Fällen (siehe LAWS) dokumentierter vollautonomer Letaleinsatz.
Die wichtigsten Einsatzszenarien 2024–2026
- Ukraine-Krieg (seit 2022). Massiver Einsatz verschiedener Drohnenklassen auf beiden Seiten. Dokumentierter erster autonomer KI-Letalangriff der Kriegsgeschichte im Herbst 2023 (BBC, New Scientist). KI-Zielerkennung, Schwarmkoordination, Bildklassifikation.
- Gaza/Mittlerer Osten. Einsatz KI-gestützter Zielidentifikationssysteme mit dokumentierten humanitären Folgen (The Guardian 2024).
- Libyen 2020. UN-Panel-dokumentierter erster öffentlicher LAWS-Einsatz gegen Menschen (S/2021/229).
Personalontologische Bewertung
Wie beim Kampfroboter gilt: Die Drohne selbst ist moralisch neutral — Werkzeug. Entscheidend ist, ob sich in ihrem Einsatz personale Verantwortung realisiert oder auflöst.
- Human-in-the-loop: Verantwortungszurechnung intakt. Der Operator entscheidet, schießt, verantwortet.
- Human-on-the-loop: Verantwortungszurechnung belastet. Die Reaktionszeit zur Intervention schrumpft; die psychologische Eskalationsbereitschaft zur Freigabe steigt (Studien zu automation bias, z. B. Parasuraman/Riley 1997).
- Voll-autonom: Verantwortungszurechnung zerbricht (Verantwortungslücke nach Sparrow 2007). Die Personalontologie lehnt diesen Modus kategorisch ab, weil er strukturell Personvergessenheit institutionalisiert.
Ontologische Einordnung
Oberbegriffe: Kampfroboter, Roboter
Typische Autonomiegrade: Alle vier Stufen, je nach Modell
Kapitelzuordnung: Kapitel 5: Personvergessenheit
Siehe auch
- Kampfroboter
- Letales autonomes Waffensystem
- Drohnenschwarm
- Verantwortungslücke
- Autonomiegrad
- Krieg
- KI-Ethik
- UN GGE LAWS
- Robert Sparrow
Quellenangaben: Sparrow, Robert (2007): „Killer Robots”. Journal of Applied Philosophy 24(1), S. 62–77.
Weitere Quellen:
- Parasuraman, Raja / Riley, Victor (1997): „Humans and Automation: Use, Misuse, Disuse, Abuse”. Human Factors 39(2), S. 230–253.
- United Nations Panel of Experts on Libya (2021): Final Report S/2021/229.
- BBC News (2023): Berichte zu KI-gestützten autonomen Drohnenangriffen im Ukraine-Krieg.
- New Scientist (2023): Bericht zum ersten dokumentierten autonomen KI-Letalangriff.
- Bode, Ingvild / Watts, Tom (2023): Loitering Munitions and Unpredictability. Center for War Studies Research Report.
- Chamayou, Grégoire (2015): A Theory of the Drone. New Press (philosophische Grundlagenkritik).
- The Guardian (2024): Berichterstattung zu KI-Zielsystemen in Gaza.