Die ethische Bewertung von Künstlicher Intelligenz aus der Perspektive der Personalontologie stellt eine grundlegende Frage: Wie muss mit einer Technologie umgegangen werden, die Personverhalten simulieren kann, ohne selbst Person zu sein?

Die personalontologische Perspektive

Die Personalistische Norm — die Person ist um ihrer selbst willen zu bejahen — gilt für Personen, nicht für Maschinen. Eine KI-Ethik, die auf der Ontologie des Personseins gründet, unterscheidet klar:

  • Die Person ist Jemand — eine KI ist etwas. Diese Unterscheidung ist nicht graduell, sondern grundsätzlich.
  • Würde kommt der Person zu, weil sie Person ist — nicht weil sie bestimmte Funktionen ausübt. Eine KI hat keine Würde, auch wenn sie „intelligent” erscheint.
  • Verantwortung setzt Freiheit und Selbstbewusstsein voraus. Eine KI kann nicht verantwortlich handeln — die Verantwortung liegt bei den Personen, die sie entwickeln und einsetzen.

Gefahren der Personvergessenheit

Die größte Gefahr im Umgang mit KI ist eine neue Form der Personvergessenheit:

  1. Vermenschlichung der Maschine: Wenn KI-Systemen Personsein zugesprochen wird, wird der Personbegriff entwertet.
  2. Maschinisierung des Menschen: Wenn der Mensch als bloßes informationsverarbeitendes System verstanden wird, wird sein geistiges Sein geleugnet.
  3. Instrumentalisierung: Wenn KI eingesetzt wird, um Personen zu manipulieren, zu überwachen oder zu ersetzen, wird die Personalistische Norm verletzt.

Leitlinien aus der Personalontologie

Eine an der Wirklichkeit der Person orientierte KI-Ethik fordert:

  • KI darf die Würde der Person nicht antasten
  • KI-Entscheidungen über Personen bedürfen personaler Verantwortung
  • Die Unterscheidung von Person und Maschine muss gewahrt bleiben
  • KI soll der Entfaltung des Personseins dienen, nicht es ersetzen
  • KI ist nicht wahrheitsfähig und kann keine ethischen Urteile fällen — sie hat kein Gewissen

Warum KI aus sich heraus keine echten ethischen Entscheidungen fällen kann

Große Sprachmodelle und andere KI-Systeme sind statistisch-probabilistische Modelle. Wenn eine KI eine ethische Frage „beantwortet”, gibt sie die statistisch wahrscheinlichste Antwort wieder, die sich aus ihren Trainingsdaten ergibt — einen gewichteten Durchschnitt menschlicher Meinungen, nicht ein begründetes Urteil. Das ist keine ethische Kompetenz, sondern ein Echo.

Echte ethische Entscheidungen setzen voraus, was die Personalontologie als Wesenscharakteristika der Person ausweist: Vernunft, die Gründe abwägt. Gewissen, das zwischen gut und böse unterscheidet. Freiheit, die sich für das Gute entscheiden kann. Und Verantwortung, die das eigene Handeln vor sich und anderen verantwortet.

Eine KI besitzt keines dieser Wesenscharakteristika. Sie hat keine Innerlichkeit, kein Selbstbewusstsein, keinen freien Willen — und daher auch kein Gewissen. Was wie ein „ethisches Urteil” der KI aussieht, ist Deutera Energeia ohne Prote Energeia. Es ist die Simulation einer Handlung ohne ein Selbst, das handelt — eine Statistische Ethiksimulation.

Dieser Mangel zeigt sich besonders dort, wo ethische Dilemmata auftreten. Das Unmöglichkeitstheorem (Chouldechova 2017) beweist mathematisch, dass nicht alle statistischen Fairness-Kriterien gleichzeitig erfüllt werden können. Wenn ein Kriterium optimiert wird, wird ein anderes verletzt. Ein statistisches System kann erkennen, dass ein Bias vorliegt. Aber es kann nicht entscheiden, welches Fairness-Kriterium Vorrang hat. Dafür braucht es eine normative Begründung. Und normative Begründungen setzen eine ontologische Grundlage voraus, die über Statistik hinausgeht.

Die wachsende Dringlichkeit einer begründeten KI-Ethik

Die Frage nach einer ontologisch fundierten KI-Ethik ist nicht akademisch, sondern von unmittelbarer praktischer Relevanz. Autonome und semi-autonome KI-Systeme fällen bereits heute Entscheidungen, die Personen unmittelbar betreffen — in immer mehr Lebensbereichen:

  • Autonomes Fahren: Ein Fahrzeug muss in Sekundenbruchteilen entscheiden, wie es in einer Gefahrensituation reagiert. Solche Entscheidungen betreffen potenziell das Leben von Personen — und werden derzeit auf der Grundlage statistischer Optimierung getroffen, nicht auf der Grundlage einer Ethik, die die Würde jeder betroffenen Person achtet.
  • Medizin: KI-Systeme unterstützen Diagnosen, priorisieren Patienten und empfehlen Behandlungen. Wo ein Algorithmus entscheidet, wer zuerst behandelt wird, steht die Personalistische Norm auf dem Spiel: Die Person darf nicht auf einen Datenpunkt reduziert werden.
  • Personalwesen (HR): Algorithmen filtern Bewerbungen, bewerten Leistung und beeinflussen Beförderungsentscheidungen. Eine algorithmische Bewertung, die nicht an der Würde der Person gemessen wird, droht zur Instrumentalisierung zu werden.
  • Justiz und Verwaltung: Predictive Policing, Risikobewertungen im Strafrecht, automatisierte Leistungsbescheide — überall dort, wo Algorithmen über Personen urteilen, ohne dass ein Gewissen am Werk ist.

In all diesen Bereichen gilt: Ein statistisches System kann Muster erkennen, aber es kann nicht begründen, warum eine Entscheidung moralisch richtig oder falsch ist. Es kann nicht die „Warum”-Frage beantworten, die der EU AI Act mit seinen Forderungen nach „menschenzentrierter KI” (Art. 1) und dem Schutz der „Grundrechte” implizit stellt — aber selbst nicht formal beantwortet.

Eine KI-Ethik, die über statistische Fairness-Metriken hinausgeht und ethische Entscheidungen ontologisch begründen kann, wird daher mit jeder neuen Anwendung dringlicher. Je autonomer KI-Systeme agieren, desto weniger genügt es, die Verantwortung allein beim Menschen zu belassen, ohne der Maschine selbst eine normative Orientierung mitzugeben. Diese Orientierung ist kein Ersatz für das menschliche Gewissen, sondern eine formalisierte Begründungsstruktur, an der sich die Maschine ausrichtet.

Von nicht-personalontologischer Seite hat Luciano Floridi mit seiner Information Ethics den einflussreichsten gegenwärtigen Gegenentwurf formuliert: Er will den moralischen Status nicht vom Personsein, sondern vom Informations-Sein der Entitäten ableiten und spricht auch nicht-personalen informationellen Entitäten einen abgestuften Eigenwert zu (entropic harm). Die Personalontologie widerspricht dieser Ausweitung: Was dem Jemand gebührt, kann dem Etwas nicht zukommen. Floridis Ansatz bleibt aber ein seriöser Bezugspunkt, weil er das Bedürfnis nach einer an die KI selbst gerichteten normativen Struktur artikuliert.

KI und Kunst — von der ontologischen zur ethischen Frage

Die Frage, ob KI Kunst schaffen kann, ist zunächst keine ethische, sondern eine ontologische: Was ist Kunst, und was muss ein Wesen sein, um sie hervorzubringen? Die Personalontologie gibt eine klare Antwort: Was KI produziert, ist Deutera Energeia (Ausübung von Tätigkeiten) ohne Prote Energeia (substantielles Sein). Es ist Output ohne ein Herz, das von Werten berührt wurde. Ohne eine Individualität, die sich ausdrückt. Ohne ein Selbst, das sich in Selbsttranszendenz hingibt. KI simuliert die Form der Kunst, nicht ihren Ursprung.

Ethisch wird diese ontologische Einsicht dort, wo sie gesellschaftlich ignoriert wird. Wenn KI-generierte Bilder, Texte und Musik von menschlicher Kunst nicht mehr unterschieden werden — und wenn diese Unterscheidung auch nicht mehr für wichtig gehalten wird —, dann vollzieht sich eine neue Form der Personvergessenheit. Das Personsein wird auf beobachtbare Funktionen reduziert. Das ist genau der empirisch-funktionalistische Fehlschluss, den die Personalontologie zurückweist.

Darüber hinaus wirft KI-generierte Kunst konkrete ethische Fragen auf: die Instrumentalisierung von Künstlern, deren Werke ohne Einwilligung als Trainingsdaten dienen. Die Täuschung, wenn KI-Output als menschliches Werk ausgegeben wird. Und die Entwertung personaler schöpferischer Leistung in einer Gesellschaft, die den Unterschied zwischen Jemand und etwas zunehmend einebnet.

Algorithmische Bewertung

Eine algorithmische Bewertung ist eine durch einen künstlichen Agenten erzeugte Zuschreibung über eine Person. Diese Bewertung ist zeitlich begrenzt und nicht wesensbestimmend. Die Person ist nicht ihre Bewertung.

Dies ist personalontologisch entscheidend: Die Würde der Person gründet in ihrem Sein, nicht in einer algorithmisch erzeugten Kennzahl. Algorithmische Bewertungen müssen daher stets im Rahmen einer ethischen Prüfung an der Personalistischen Norm gemessen werden.

Ontologische Einordnung:

  • Unterklasse von: Zeitliche Zuschreibung

Automatisierter Entscheidungsprozess

Ein automatisierter Entscheidungsprozess ist ein Prozess, in dem ein künstlicher Agent Entscheidungen trifft oder vorbereitet, die Personen betreffen. Er muss an der Personalistischen Norm gemessen werden. Die Person hat das Recht, nicht ausschließlich auf Grundlage automatisierter Bewertung behandelt zu werden.

Keine Entscheidung über Personen darf ohne personale Letztverantwortung getroffen werden. Daher unterliegt jeder automatisierte Entscheidungsprozess der Kontrolle einer verantwortlichen Person. Dies schützt die Würde der Person vor einer Reduktion auf Datenpunkte und Algorithmen.

Ontologische Einordnung:

  • Unterklasse von: Prozess
  • Relationen: wirdBewertetDurch (Person Prozess), unterliegtMenschlicherKontrolle (Prozess Person)

Informierte Einwilligung

Die freie, aufgeklärte Zustimmung einer Person zu einem medizinischen Eingriff. Die informierte Einwilligung (informed consent) ist Ausdruck der Achtung vor dem freien Willen und der Rationalität der Person — Wesenscharakteristika des Personseins (vgl. Bexten 2017, S. 322 ff.).

Aus personalontologischer Sicht gründet die Forderung nach informierter Einwilligung in der Würde der Person: Die Person darf nicht zum bloßen Objekt medizinischen Handelns gemacht werden, sondern muss als Subjekt — als Jemand mit eigener Innerlichkeit, Freiheit und Erkenntnis — respektiert werden. Die Personalistische Norm verbietet es, die Person bloß als Mittel zu gebrauchen; die informierte Einwilligung ist die praktische Konsequenz dieses Verbots im medizinischen Kontext.

Zwei Elemente sind für eine gültige informierte Einwilligung konstitutiv. Erstens die Wahrheitsfähigkeit: Die Person muss die relevanten Informationen verstehen können und aufrichtig informiert werden. Zweitens die Freiheit: Die Zustimmung muss ohne Zwang, Täuschung oder Manipulation erfolgen. Wo eines dieser Elemente fehlt — etwa bei einem Embryo, einem bewusstlosen Patienten oder unter Zwang — kann keine gültige Einwilligung vorliegen. Es bedarf dann besonderer Schutzmaßnahmen.

Die informierte Einwilligung ist als personaler Akt einzuordnen: Sie ist ein bewusster, freier Akt der Person, in dem diese über sich selbst verfügt. Zugleich zeigt die informierte Einwilligung die Grenzen der Selbstverfügung: Die Person kann nicht in alles einwilligen. In eine in-sich-schlechte Handlung — etwa in die eigene Tötung (Euthanasie) — kann die Person nicht sittlich gültig einwilligen, weil die Würde der Person unverfügbar ist, auch für die Person selbst.

Im Kontext der Reproduktionsmedizin stellt sich die Frage der informierten Einwilligung in besonderer Schärfe: Bei der künstlichen Befruchtung oder Leihmutterschaft kann das betroffene Kind — die Person, deren Existenz auf dem Spiel steht — keine Einwilligung geben.

Ontologische Einordnung:

Kapitelzuordnung: Kapitel 5: Personvergessenheit

Quellenangaben: Bexten 2017, S. 322 ff. (informierte Einwilligung, Personvergessenheit und Technologie).

Weitere Quellen:

  • Turing, Alan (1950): „Computing Machinery and Intelligence”. In: Mind 59, S. 433–460 (Verhaltensäquivalenz als Kriterium — personalontologisch zurückgewiesen).
  • Spaemann, Robert (1996): Personen. Versuche über den Unterschied zwischen „etwas” und „jemand”. Stuttgart: Klett-Cotta (Jemand/Etwas-Unterscheidung als Grundlage der KI-Ethik).
  • Wojtyła, Karol (1960): Liebe und Verantwortung (Miłość i odpowiedzialność). Towarzystwo Naukowe KUL, Lublin (Personalistische Norm).
  • Singer, Peter (1979/1993): Practical Ethics. Cambridge: Cambridge University Press (vertritt den funktionalistischen Personbegriff — in der Dissertation kritisch diskutiert).
  • Kant, Immanuel (1785): Grundlegung zur Metaphysik der Sitten. Akademie-Ausgabe Bd. IV, S. 429 (Selbstzweckformel: Person nie bloß als Mittel).
  • Chouldechova, Alexandra (2017): „Fair Prediction with Disparate Impact: A Study of Bias in Recidivism Prediction Instruments”. Big Data 5(2), S. 153–163 (Unmöglichkeitstheorem statistischer Fairness).
  • Europäische Union (2024): Verordnung über Künstliche Intelligenz (AI Act). Verordnung (EU) 2024/1689.

Siehe auch: