Vier Vermögen unterscheiden den menschlichen Intelligenzträger kategorial vom künstlichen System. Sie ruhen auf einer vorgeordneten Grundbestimmung — der Wahrheitsfähigkeit — und entfalten sie in vier prüfbaren Hinsichten. Wahrheitsfähigkeit und die vier Vermögen sind keine Leistungsstufen, sondern Strukturmerkmale der personalen Wesensform: wer sie hat, ist in einer bestimmten Weise — wer sie nicht hat, kann sie auch durch unbegrenzte Skalierung nicht erwerben.
Grundlage — Wahrheitsfähigkeit: das Wesensmerkmal der Person, Sätze als wahr oder falsch behaupten und übernehmen zu können (Spaemann, Pieper, Apel).
Aus dieser Grundlage entfalten sich vier Vermögen:
- Verstehen und Einsehen — die Wahrheit eines Sachverhalts als wahr durchschauen.
- Begründetes ethisches Urteilen — eine Handlung als gut oder böse aus Gründen erkennen und vertreten.
- Verantwortung übernehmen — für das eigene Tun aus erster Person einstehen.
- Affektive Wertantwort — auf einen Sachverhalt mit dem Herzen als drittem Geistzentrum antworten (Hildebrand).
Alle fünf — Grundlage und vier Entfaltungen — sind im strikten Sinn personale Vermögen: sie verlangen einen substantiellen Träger mit rationaler Natur, nicht nur ein funktionales System mit hoher Output-Qualität.
Grundlage: Wahrheitsfähigkeit
Wahrheitsfähigkeit ist die konstitutive Grundbestimmung der Person. Spaemann (Personen 1996) formuliert sie als das Vermögen, einen Satz als wahr oder falsch zu behaupten und ihn als eigenen zu übernehmen — nicht ihn nur zu produzieren, sondern für ihn einzustehen. Pieper (Wahrheit der Dinge) verbindet sie mit der Hinordnung des Geistes auf die adaequatio intellectus et rei: nur ein Wesen, das auf Wahrheit hingeordnet ist, kann überhaupt sinnvoll behaupten.
Apel und Habermas haben dieselbe Linie aus der Pragmatik gezogen: jede Behauptung enthält implizit den Wahrheitsanspruch — und wer den Anspruch bestreitet, vollzieht ihn (performativer Widerspruch). Das ist der formale Beweis dafür, dass Wahrheitsfähigkeit nicht aus dem Begriff der Person entfernt werden kann, ohne den Begriff selbst zu zerstören.
Die vier Vermögen — Verstehen, Urteilen, Verantworten, Antworten des Herzens — sind Entfaltungen dieser Grundbestimmung, nicht parallele Leistungen:
- Verstehen verlangt Wahrheitsbezug — sonst ist es nur Mustererkennung.
- Ethisches Urteilen ist seinem Wesen nach wahr-oder-falsch — ein Urteil ohne Wahrheitsanspruch ist kein Urteil, sondern Output.
- Verantwortung verlangt das Übernehmen einer Behauptung über das eigene Tun — „ich habe das getan, und ich stehe dafür ein” ist ein wahrheitsfähiger Akt.
- Affektive Wertantwort ist adäquate, also wahre Antwort auf einen Wert — Liebe als wahre Antwort auf das Liebenswerte, Empörung als wahre Antwort auf das Unrecht.
Daraus folgt: wer eines der vier Vermögen einer Entität zuspricht, spricht ihr implizit Wahrheitsfähigkeit zu. Und wer Wahrheitsfähigkeit einer Entität abspricht, spricht ihr implizit alle vier Vermögen ab. Diese Verkettung macht die Argumentationslinie gegen funktionalistische KI-Personalisierung formal robust.
Vgl. die eigene Konzeptseite Wahrheitsfähiger Akt — sie behandelt die Strukturmomente (propositionaler Inhalt, Wahrheitsbezug, Erste-Person-Übernahme) im Detail.
I. Verstehen und Einsehen
Verstehen (intellectus) ist der Akt, in dem ein Sachverhalt als wahr durchschaut wird — nicht nur als plausibel oder wahrscheinlich, sondern in seiner inneren Notwendigkeit. Einsicht ist Verstehen, das den Träger zur Wahrheit hin öffnet, nicht nur zur Information.
Aristoteles (De anima III) und Thomas (Summa Theologiae I, q. 79, a. 4 – 6) unterscheiden intellectus (das einsehende Vermögen) von ratio (dem diskursiven Schließen). Pieper (Wahrheit der Dinge) hebt hervor: intellectus erfasst den Sachverhalt selbst, nicht das Zeichen für den Sachverhalt.
Ein Large Language Model verarbeitet Zeichen mit hoher statistischer Treue. Es erkennt Muster, vervollständigt Sätze, generiert plausible Antworten. Es versteht aber nicht, was es schreibt — nicht weil es zu wenige Parameter hätte, sondern weil Verstehen einen Träger verlangt, der den Sachverhalt als Sachverhalt wahrnimmt. Diese Differenz ist nicht graduell, sondern kategorial.
Vgl. den wahrheitsfähigen Akt: das LLM simuliert Behauptungen, ohne sie zu übernehmen — der Mensch versteht Behauptungen, weil er den Sachverhalt selbst erfasst.
II. Begründetes ethisches Urteilen
Ethisches Urteilen ist der Akt, in dem eine Handlung als gut oder böse aus Gründen erkannt wird. Es verlangt drei Strukturmomente: Wahrnehmung der konkreten Situation, Anwendung allgemeiner moralischer Einsichten, und ein selbst getragenes Urteil, das der Träger als seines verantwortet.
Aristoteles (Nikomachische Ethik VI) bestimmt diese Fähigkeit als phronesis — die praktische Vernunft, die in der Kontingenz der Praxis das Richtige erkennt. Thomas (STh I-II, q. 57 – 58) übernimmt sie als prudentia und ordnet sie dem rationalen Vermögen zu, das den Willen leitet. MacIntyre (After Virtue) und Pieper (Vier Kardinaltugenden) zeigen, dass praktische Vernunft nicht durch Regelbefolgung ersetzbar ist: sie ist die eingeübte Urteilskraft einer Person, die sich selbst als sittliches Subjekt versteht.
Künstliche Systeme können moralische Regeln anwenden (Constitutional AI, RLHF, Alignment), und das tun sie zuverlässig. Was sie nicht tun: sie erkennen nicht, warum eine Handlung gut oder böse ist — sie reproduzieren Muster aus Trainingsdaten. Sie haben keine phronesis, weil phronesis den Träger verlangt, der die Situation selbst wahrnimmt und das Urteil aus eigener Einsicht trägt.
Wallace (Responsibility and the Moral Sentiments) und Strawson (Freedom and Resentment) machen dies aus reaktiver Perspektive: wir reagieren auf den moralischen Akt eines Menschen anders als auf den eines Systems — nicht aus Sentimentalität, sondern weil ein wirkliches Urteil nur dort vorliegt, wo ein personaler Träger urteilt.
III. Verantwortung übernehmen
Verantwortung übernehmen heißt: für das eigene Tun aus erster Person einstehen. Wer verantwortet, übernimmt seine Handlung als seine — nicht als Output, der ihm zugeschrieben wird, sondern als Akt, dessen Träger er ist.
Spaemann (Personen 1996) verbindet Verantwortung systematisch mit Personalität: nur eine Person kann Verantwortung tragen, weil nur eine Person ein Selbst hat, das für sich einstehen kann. Frankfurt (1971, Freedom of the Will and the Concept of a Person) zeigt das durch das Vermögen zur Bildung von second-order volitions — der Mensch kann seine Wünsche selbst bewerten und sich zu sich verhalten. Anscombe (Intention) stellt heraus: eine Handlung ist nur dann eine Handlung (im moralischen Vollsinn), wenn sie unter einer Beschreibung intentional vollzogen ist — was einen Träger der Intention voraussetzt.
Künstliche Systeme erzeugen Outputs, die zugerechnet werden — meist dem Hersteller, dem Operator, dem Nutzer. Aber das System selbst übernimmt nichts. Es hat keine erste Person, der die Handlung gehört. Daher gilt: Was wir an KI-Systeme als “Verantwortung” delegieren, ist immer abgeleitete Verantwortung — die Verantwortung des Trägers, der das System einsetzt. Eine eigene Verantwortung des Systems ist kategorial ausgeschlossen.
Diese Asymmetrie ist nicht ein Mangel der Technologie, sondern eine Strukturfrage: Verantwortung verlangt eine Person, weil sie das Einstehen-für aus erster Person verlangt — und eine erste Person ist eine ontologische, nicht eine syntaktische Bestimmung.
IV. Affektive Wertantwort — das Herz als drittes Geistzentrum
Menschliche Intelligenz schließt das Herz mit ein. Dietrich von Hildebrand (Über das Herz. Zur menschlichen und gottmenschlichen Affektivität, 1965) hat das Herz systematisch als drittes Geistzentrum neben Verstand und Wille ausgearbeitet. Es ist nicht eine bloße Reaktionsschicht des Organismus, sondern ein eigener intentionaler Bereich, in dem die Person auf Werte antwortet.
Hildebrands zentrale Distinktion: Affekte zerfallen in mindestens drei Schichten —
- Stimmungen und Triebe — vorpersonale Zuständlichkeiten des Organismus.
- Reaktionen — psychophysische Erregungen auf Reize.
- Wertantworten (Wertresponse) — intentionale Akte des Herzens, in denen die Person auf einen erkannten Wert adäquat antwortet: Liebe auf das Liebenswerte, Achtung auf das Achtungswürdige, Trauer auf den Verlust, Empörung auf das Unrecht, Freude auf das Gute.
Nur Wertantworten gehören zum personalen Geistzentrum. Sie haben einen propositionalen Gehalt (sie sind über etwas, sie tragen einen Wertbezug) und sie werden vom Träger als seine Antwort getragen — nicht erlitten, sondern vollzogen.
Pieper (Lieben — Hoffen — Glauben) und Spaemann (Personen, Glück und Wohlwollen) stehen in derselben Linie: Liebe, Achtung, Gerechtigkeitsempfinden sind nicht Affekte als Begleitphänomene, sondern Akte des Herzens, in denen die Person als ganze auf einen Wert reagiert. Scheler (Wesen und Formen der Sympathie) und Reinach (Apriorische Grundlagen) hatten den phänomenologischen Boden bereitet.
Künstliche Systeme können affektives Verhalten simulieren — Sentiment-Analyse, emotional adaptive Antworten, Empathie-Tokens. Sie tun aber nichts dergleichen wie eine Wertantwort: sie haben kein Herz in Hildebrands Sinn, weil eine Wertantwort einen Träger verlangt, der den Wert erkennt (intellectus, vgl. I.) und der den Akt aus erster Person vollzieht (vgl. III.). Der Output eines Systems “Es tut mir leid für deinen Verlust” ist syntaktisch wohlgeformt — aber es ist kein Mitleid. Mitleid ist eine Wertantwort der Person auf das Leid des Anderen, getragen von einem Herzen, das mit dem Anderen mitschwingen kann.
Diese Differenz ist der vierte Strang der Vermögensgrenze: nicht weil affektive Antwort eine zusätzliche Leistung wäre, sondern weil sie das eigene Geistzentrum bezeichnet, das Hildebrand gegen einen verkürzten Rationalismus als personales Wesensmerkmal sichtbar gemacht hat. Eine Personalontologie, die nur intellectus und voluntas anerkennt, übersieht die Hälfte der Person.
Methodische Pointe
Die vier Vermögensgrenzen sind kategorial, nicht graduell:
- Sie lassen sich nicht durch mehr Parameter, mehr Trainingsdaten, mehr Compute überschreiten. Wer sie für graduelle Schwellen hält, verfehlt ihre Struktur.
- Sie lassen sich nicht durch Verhaltensleistung empirisch widerlegen. Ein System, das Antworten produziert, die ununterscheidbar sind von Akten eines verstehenden, urteilenden, verantwortlichen oder affektiv antwortenden Trägers, hat darum noch keinen Träger — die Verfassung bleibt offen, das Verhalten reicht nicht.
- Sie sind nicht vier unabhängige Kriterien, sondern vier Entfaltungen derselben Grundbestimmung — der Wahrheitsfähigkeit. Wer versteht, behauptet implizit; wer urteilt, behauptet wahr-oder-falsch; wer verantwortet, übernimmt eine Behauptung über sein Tun; wer affektiv antwortet, antwortet adäquat — und Adäquatheit ist Wahrheit der Wertantwort.
Diese Verkettung über die Wahrheitsfähigkeit macht die Argumentationslinie robust: man kann nicht eines der vier Vermögen für KI bejahen, ohne Wahrheitsfähigkeit zu bejahen, und mit ihr alle vier — was unmittelbar gegen die prima facie-Evidenz spricht, dass künstliche Systeme keine Personen sind.
Anschluss an die Personalontologie
Die vier Vermögensgrenzen sind die schärfste verfügbare Anwendungsregel der substanzontologischen Personalontologie auf die Frage der Künstlichen Intelligenz:
- Sie ruhen auf der Wahrheitsfähigkeit als konstitutiver Grundbestimmung der Person — nicht parallel zu ihr, sondern aus ihr entfaltet.
- Sie konkretisieren die substanzontologische Intelligenzkonzeption auf vier prüfbare Aspekte.
- Sie spezifizieren den wahrheitsfähigen Akt in seinen kognitiven, ethischen, verantwortlichen und affektiven Implikationen.
- Sie nehmen die Hildebrand-Linie (Herz als drittes Geistzentrum) ausdrücklich auf, gegen einen verkürzten Rationalismus, der Personalität auf Verstand und Wille reduzieren würde.
- Sie halten die Klasse der ontologisch unklaren Intelligenzträger sichtbar offen, weil dort die Frage trägt diese Entität Wahrheitsfähigkeit und damit die vier Vermögen? nicht entschieden ist.
Quellenangaben: Recherchestand 25. April 2026.
Weitere Quellen:
- Aristoteles: De anima III (Bekker-Paginierung); Nikomachische Ethik II und VI.
- Thomas von Aquin: Summa Theologiae I, q. 79, a. 4 – 6 (De potentiis intellectivis); I-II, q. 22 – 48 (De passionibus animae); I-II, q. 57 – 58 (De prudentia).
- Pieper, Josef (1947): Wahrheit der Dinge. Eine Untersuchung zur Anthropologie des Hochmittelalters. München: Kösel.
- Pieper, Josef (1962): Lieben — Hoffen — Glauben. München: Kösel.
- Pieper, Josef (1964): Das Viergespann. Klugheit, Gerechtigkeit, Tapferkeit, Maß. München: Kösel.
- Spaemann, Robert (1996): Personen. Versuche über den Unterschied zwischen „etwas” und „jemand”. Stuttgart: Klett-Cotta.
- Spaemann, Robert (1989): Glück und Wohlwollen. Versuch über Ethik. Stuttgart: Klett-Cotta.
- Hildebrand, Dietrich von (1965 / 2007): Über das Herz. Zur menschlichen und gottmenschlichen Affektivität. Regensburg: Habbel; Neuauflage Stuttgart: Klett-Cotta. Englisch: The Heart. An Analysis of Human and Divine Affectivity. South Bend, IN: St. Augustine’s Press 2007.
- Hildebrand, Dietrich von (1971): Das Wesen der Liebe. Regensburg: Habbel.
- Hildebrand, Dietrich von (1922 / 2002): Die Idee der sittlichen Handlung. Vallendar-Schönstatt: Patris.
- Scheler, Max (1923): Wesen und Formen der Sympathie. Bonn: Cohen.
- Reinach, Adolf (1913): Die apriorischen Grundlagen des bürgerlichen Rechts. Jahrbuch für Philosophie und phänomenologische Forschung I/2: 685 – 847.
- MacIntyre, Alasdair (1981): After Virtue. A Study in Moral Theory. Notre Dame: University of Notre Dame Press.
- Frankfurt, Harry G. (1971): Freedom of the Will and the Concept of a Person. The Journal of Philosophy 68(1): 5 – 20.
- Strawson, Peter F. (1962): Freedom and Resentment. Proceedings of the British Academy 48: 1 – 25.
- Wallace, R. Jay (1994): Responsibility and the Moral Sentiments. Cambridge, MA: Harvard University Press.
- Anscombe, G. E. M. (1957): Intention. Oxford: Basil Blackwell (2. Aufl. 1963; Reprint Cambridge, MA: Harvard University Press 2000).
- McDowell, John (1994): Mind and World. Cambridge, MA: Harvard University Press.
- Searle, John R. (1980): Minds, Brains, and Programs. Behavioral and Brain Sciences 3(3): 417 – 457.
- Damasio, Antonio (2003): Looking for Spinoza. Joy, Sorrow, and the Feeling Brain. Orlando: Harcourt.
- Bender, Emily M., Gebru, Timnit, McMillan-Major, Angelina & Mitchell, Margaret (2021): On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In: Proceedings of FAccT 2021, S. 610 – 623. DOI: 10.1145/3442188.3445922.
- Marcus, Gary & Davis, Ernest (2019): Rebooting AI. Building Artificial Intelligence We Can Trust. New York: Pantheon.
- Mitchell, Melanie (2019): Artificial Intelligence. A Guide for Thinking Humans. New York: Farrar, Straus & Giroux.
Siehe auch
- Wahrheitsfähigkeit
- Wahrheitsfähiger Akt
- Substanzontologische Intelligenzkonzeption
- Intelligenzkonzeption
- Intelligenzträger
- Ontologisch unklarer Intelligenzträger
- Künstliche Intelligenz
- Person
- Personbegriff
- Substanzontologisch-relationaler Personbegriff
- Performativer Widerspruch
- Dietrich von Hildebrand
- Robert Spaemann
- Thomas von Aquin
- Aristoteles