Ein informationsverarbeitendes System, das kognitive Funktionen simuliert. Künstliche Intelligenz ist keine Person im ontologischen Sinne: Sie besitzt keine geistige Substanz, kein Personsein als Erste Wirklichkeit (prote energeia).
Warum KI keine Person ist
Die Ontologie des menschlichen Personseins zeigt klar: Personsein gründet nicht in der Fähigkeit, bestimmte Funktionen auszuüben — sondern im Sein einer geistigen Substanz. Der empirisch-funktionalistische Personbegriff, der Person-Sein an beobachtbares Verhalten knüpft, müsste konsequenterweise auch einer hinreichend komplexen KI Personsein zusprechen. Genau das zeigt seinen grundlegenden Irrtum. Der Turing-Test macht diese Konsequenz explizit: Wenn Verhalten das Kriterium ist, muss jede verhaltensäquivalente Maschine als denkend gelten — ein Ergebnis, das Turing selbst akzeptierte, das aber die Verwechslung von operatio und esse offenlegt.
Eine KI kann Personverhalten simulieren — Sprache produzieren, Muster erkennen, scheinbar „Entscheidungen” treffen. Doch sie hat weder Innerlichkeit noch Selbstbewusstsein, weder Freiheit noch Verantwortung. Ihr fehlt das, was den Menschen von Anfang an zum Jemand macht: das geistige Sein im Leib.
KI und Personvergessenheit
Die Verwechslung von Simulation und Wirklichkeit ist eine zeitgenössische Form der Personvergessenheit: Wenn wir beginnen, Maschinen für Personen zu halten, haben wir vergessen, was eine Person ist. Die Personalistische Norm gilt für Personen — nicht für Systeme, die Personen imitieren.
KI und die Wesenscharakteristika des Personseins
Die Ontologie definiert acht notwendige, unverlierbare Wesenscharakteristika jeder Person. Keines davon kommt einer KI zu:
- Geistiges Sein: Die Person existiert als geistige Substanz. Eine KI ist ein materielles, informationsverarbeitendes System — sie besitzt kein geistiges Sein.
- Ich: Die Person weiß um sich selbst als Jemand. Eine KI hat kein Ich-Bewusstsein, auch wenn sie das Wort „ich” verwenden kann.
- Rationalität: Die Person erkennt Wahrheit durch Einsicht in Wesensnotwendigkeiten. Eine KI verarbeitet Muster — sie denkt nicht im personalen Sinne (vgl. Denken).
- Wahrheitsfähigkeit: Die Person kann Wahres von Falschem unterscheiden und ist auf Wahrheit ausgerichtet. Eine KI produziert statistisch wahrscheinliche Ausgaben — sie hat keinen Zugang zur Wahrheit als solcher und kann daher auch keine ethischen Urteile fällen.
- Freier Wille: Die Person handelt aus Freiheit. Eine KI führt Berechnungen aus — ihr „Entscheiden” ist determiniert, nicht frei.
- Liebesvermögen: Die Person kann lieben — sich selbst hingeben und den anderen um seiner selbst willen bejahen (Liebe). Einer KI fehlt jede Form von Innerlichkeit, die Liebe ermöglichen würde.
- Ontologische Würde: Die Person hat einen Wert, der über jeden Preis erhaben ist. Eine KI hat keinen solchen Wert — sie ist ein Werkzeug, das ersetzt werden kann.
- Affektivität: Die Person erlebt Freude, Trauer, Ehrfurcht. Eine KI simuliert Emotionen, erlebt sie aber nicht.
Eine KI hat auch kein Gewissen — sie kann keine sittlichen Urteile über ihre eigenen Handlungen fällen, weil ihr das Selbstbewusstsein und die Freiheit fehlen, die das Gewissensurteil voraussetzen. Die Verantwortung für das, was eine KI tut, liegt immer bei den Personen, die sie entwickeln und einsetzen.
Ontologische Einordnung:
- Oberklasse: Technologie
- ist disjunkt mit: Person
- besitzt nicht: Personsein, geistige Substanz, Würde
Künstlicher Agent
Ein künstlicher Agent ist ein von Personen geschaffenes System mit Entscheidungsfähigkeit. Die Ontologie stellt unmissverständlich fest: Ein künstlicher Agent ist KEINE Person, besitzt KEIN Personsein und KEINE ontologische Würde. Er ist ein Seiendes, aber kein Jemand.
Ein künstlicher Agent wird von einer Person gesteuert und simuliert Personverhalten, ohne Personsein zu besitzen. Diese Unterscheidung ist für die KI-Ethik von grundlegender Bedeutung: Die Simulation von Erkenntnis, Sprache oder Entscheidung darf nicht mit dem personalen Vollzug dieser Akte verwechselt werden. Wo diese Verwechslung geschieht — wo dem künstlichen Agenten Personsein zugeschrieben oder der Person ein bloß maschinelles Funktionieren unterstellt wird —, liegt eine Form der Personvergessenheit vor.
Ontologische Einordnung
Oberbegriff: Seiendes
Ontologische Beziehungen:
- wird gesteuert von: Person
- simuliert: Personverhalten
- besitzt NICHT: Personsein, Würde
Verkörperte KI — der Roboter und seine Unterklassen
Ein künstlicher Agent mit Sensorik, Aktorik und physischer Gestalt heißt Roboter. Die Verkörperung ändert die ontologische Grundaussage nicht: Auch der verkörperte Agent ist etwas, nicht Jemand. Sie verschärft aber die Anthropomorphisierungsdrift, weil der Roboter in der gemeinsamen Welt auftritt, in der sonst nur Personen und Tiere begegnen.
Die Personalontologie unterscheidet vier praktisch relevante Unterklassen des Roboters:
- Humanoider Roboter — bipedale, anthropomorphe Bauform. Die Menschengestalt ist Akzidenz, nicht Natur; sie begründet keine Personqualifikation. Gerade die Ähnlichkeit ist die Gefahrenquelle: Je täuschender die Form, desto größer das Risiko, dem Gerät personalen Status zuzuschreiben.
- Pflegeroboter — soziale Begleit- und Pflege-Assistenzsysteme. Sie dürfen personale Zuwendung ergänzen, niemals ersetzen. Ihre Einfühlungs-Simulation ist Deutera Energeia ohne Prote Energeia — ein Verhalten ohne ein fühlendes Selbst. Besondere Sorgfalt ist geboten, wo Menschen (etwa bei Demenz) den Status des Geräts nicht mehr zuverlässig einordnen können.
- Kampfroboter und letale autonome Waffensysteme (LAWS) — militärische Systeme von fernsteuerbaren Kampfdrohnen über Loitering Munitions bis zu vollautonomen Letalsystemen (vgl. UN-Panel-Report S/2021/229 zu Libyen 2020, Ukraine-Krieg seit 2023). Hier wird die personalontologische Grundfrage existenziell: Töten ist sittlicher Akt und muss personal zurechenbar bleiben.
- Industrie-, Logistik- und Chirurgieroboter — Werkzeuge personaler Praxis im engeren Sinn. Ihre ethische Bewertung folgt den allgemeinen Werkzeug-Maßstäben (Arbeitsschutz, Produkthaftung), nicht der Person-Maschine-Grenze.
Die wachsende industrielle Serienfertigung humanoider Systeme in den USA, China und Ostasien (angekündigte Zielgrößen im fünf- bis sechsstelligen Bereich jährlich, Haushaltsmodelle ab ca. 13.500–20.000 USD) macht die Unterscheidung von Jemand und etwas zu einer Alltagsfrage — nicht mehr zu einer akademischen.
Autonomiegrad und Verantwortungslücke
Der Autonomiegrad bezeichnet das Maß, in dem ein System ohne menschliches Zutun handelt. Die gängige vierstufige Taxonomie unterscheidet Human-in-the-loop (Person entscheidet jede Einzelaktion), Human-on-the-loop (Person überwacht und hat Veto), Human-in-command (Person setzt Rahmen und Regeln) und vollautonom (kein personaler Eingriffspunkt in der konkreten Situation).
Zwischen den Stufen verläuft eine ethische Schwelle: Solange die Person Rahmen, Regeln oder einzelne Freigaben trägt, bleibt sie als sittliches Subjekt präsent. Wo das entfällt, entsteht eine Verantwortungslücke im Sinne Sparrows (2007): eine Handlung ohne personalen Adressaten. Weil Verantwortung aber Freiheit, Gewissen und Vernunft voraussetzt — Wesenscharakteristika, die nur die Person hat —, kann diese Lücke nicht durch zusätzliche Technik geschlossen werden, sondern nur durch meaningful human control: inhaltliche, nicht bloß formale menschliche Kontrolle.
Die KI-Bewusstseins-Debatte
Die gegenwärtige KI-Bewusstseins-Debatte (2023–2026) spitzt die alte Frage auf Schwitzgebels Full-Rights-Dilemma zu: Entweder man gewährt möglicherweise bewusstlosen Systemen Rechte, oder man riskiert moralische Verfehlungen gegen möglicherweise bewusste. Die Personalontologie löst dieses Dilemma vor seiner Entstehung: KI hat keinen actus essendi und kann deshalb prinzipiell keine Person sein. Das Dilemma entsteht nur, wenn man Personsein mit Personverhalten verwechselt — also auf dem Boden des empirisch-funktionalistischen Personbegriffs steht.
Zwei klassische Argumente stützen diese Auflösung: Das Chinese-Room-Argument (Searle 1980) zeigt, dass Syntax nicht für Semantik genügt. Das Gedankenexperiment des philosophischen Zombies zeigt, dass Verhaltensäquivalenz kein Bewusstsein logisch impliziert. Was Large Language Models in ethischen Fragen leisten, ist Statistische Ethiksimulation — ein gewichteter Durchschnitt von Trainingsdaten, nicht ein begründetes Urteil.
Regulierung und Selbstverpflichtung
KI-Systeme sind inzwischen Gegenstand dichter Regulierung. Drei Rahmen markieren den Stand 2026:
- EU AI Act (Verordnung (EU) 2024/1689): risikobasierte Systematik (verbotene Praktiken, Hochrisiko, begrenztes Risiko, minimales Risiko), eigene Regeln für General-Purpose AI, gestaffelter Geltungsbeginn bis 2027. Militärische Anwendungen sind ausgenommen (Art. 2(3)).
- UN GGE LAWS und UN-Generalversammlung, First Committee (Resolution vom 6. November 2025, 164 Ja): Forderung nach bindendem Völkerrechtsinstrument gegen vollautonome Letalwaffen bis Ende 2026, flankiert von der IKRK-Position 2021.
- Rome Call for AI Ethics (2020 ff.): sechs Prinzipien einer menschenzentrierten KI (Transparenz, Inklusion, Verantwortung, Unparteilichkeit, Verlässlichkeit, Sicherheit). Als Selbstverpflichtung kein Recht, aber eine inhaltliche Brücke zur Personalistischen Norm.
Alle drei Rahmen teilen implizit die personalontologische Grundannahme: Der Mensch bleibt sittliches Subjekt; die Maschine ist Werkzeug. Die Personalontologie liefert die Begründung, die diese Rahmen selbst nicht ausformulieren.
Weitere Berührungspunkte
Die KI berührt zahlreiche weitere Konzepte dieses Buches: den Turing-Test (Verhaltensäquivalenz als Kriterium — zurückgewiesen), KI-generierten Output (Kunst- und Täuschungsfragen), den Transhumanismus (Grenzverwischung Mensch/Maschine), Floridis Information Ethics (nicht-personalontologischer Gegenentwurf) sowie Dreyfus’ phänomenologische KI-Kritik (Intelligenz als leiblich-kontextuelle, nicht rein symbolverarbeitende Leistung).
Quellenangaben: Bexten 2017, S. 213–240 (Operatio sequitur esse: Warum Verhalten kein Kriterium für Personsein ist); ergänzende Recherche „Roboter_KI_Recherche_Personsein” (April 2026) mit systematischer Kartierung der 2026er Humanoid- und LAWS-Landschaft.
Weitere Quellen:
- Alan Turing: „Computing Machinery and Intelligence” (1950). In: Mind 59, S. 433–460. (Turing-Test und die Verwechslung von Verhalten und Sein)
- Robert Spaemann: Personen. Versuche über den Unterschied zwischen „etwas” und „jemand” (1996). Stuttgart: Klett-Cotta. (Unterscheidung Jemand/Etwas als Grundlage der KI-Kritik)
Siehe auch:
- Vier Vermögensgrenzen — die kategoriale Anwendungsregel auf KI-Systeme: Wahrheitsfähigkeit als Grundlage, vier Vermögen (Verstehen, ethisches Urteilen, Verantwortung, affektive Wertantwort) als Entfaltung
- Intelligenzkonzeption
- Intelligenzträger
- Substanzontologische Intelligenzkonzeption
- Ontologisch unklarer Intelligenzträger
- Wahrheitsfähiger Akt
- Roboter
- Humanoider Roboter
- Pflegeroboter
- Kampfroboter
- Letales autonomes Waffensystem
- Autonomiegrad
- Verantwortungslücke
- KI-Ethik
- KI-Bewusstseins-Debatte
- Statistische Ethiksimulation
- Chinese-Room-Argument
- Philosophischer Zombie
- Full-Rights-Dilemma
- EU AI Act
- Rome Call for AI Ethics
- Turing-Test
- Alan Turing
- Kapitel 5: Personvergessenheit
- Macht
- Transhumanismus
- KI-generierter Output
- Blockhead-Argument
- Robert Spaemann
- John Searle
- Hubert Dreyfus
- Robert Sparrow
- Luciano Floridi