Turing-Test

Der Turing-Test ist ein 1950 von Alan Turing vorgeschlagenes operationales Kriterium für maschinelle Intelligenz: Wenn ein Fragesteller in einer Textkonversation eine Maschine nicht zuverlässig von einem Menschen unterscheiden kann, soll der Maschine Denken zugeschrieben werden. Aus der Perspektive der Personalontologie ist dieses Kriterium grundsätzlich unzureichend, weil es Verhalten (operatio) mit Sein (esse) verwechselt.

Warum der Turing-Test als Kriterium für Personsein scheitert

Der Turing-Test beruht auf einer behavioristischen Prämisse: Intelligenz — und implizit Bewusstsein — wird über beobachtbares Verhalten definiert. Das ist genau die Logik des empirisch-funktionalistischen Personbegriffs, den die Dissertation als inadäquat zurückweist.

Der thomistische Grundsatz operatio sequitur esse — die Tätigkeit folgt dem Sein — kehrt die Logik des Tests um: Was ein Wesen tut, folgt aus dem, was es ist. Dass eine Maschine menschliches Verhalten imitiert, sagt nichts über ihr Sein aus — genau wie ein Papagei, der “Hallo” sagt, nicht spricht.

Personsein ist Erste Wirklichkeit (prote energeia) — das substantielle Sein der Person, das allem Tun vorausgeht. Der Turing-Test erfasst bestenfalls Zweite Wirklichkeit (deutera energeia) — die Ausübung von Tätigkeiten. Er verwechselt den Erkenntnisgrund (ratio cognoscendi) mit dem Seinsgrund (ratio essendi) des Personseins.

Das Chinese-Room-Argument

John Searle formulierte 1980 die einflussreichste philosophische Kritik am Turing-Test. Sein Gedankenexperiment: Eine Person sitzt in einem Raum, erhält chinesische Schriftzeichen durch einen Schlitz und gibt mithilfe eines Handbuchs korrekte Antworten zurück — ohne ein Wort Chinesisch zu verstehen.

Die Pointe: Syntax (formale Symbolmanipulation) genügt nicht für Semantik (Bedeutung). Das bestätigt die Personalontologie: Echte Intentionalität — das Gerichtetsein des Geistes auf Gegenstände — ist ein immaterielles Vermögen der Person und nicht auf Informationsverarbeitung reduzierbar. Thomas von Aquin unterscheidet: Der menschliche Intellekt empfängt die Form des Erkannten ohne dessen Materie — ein Vorgang, der grundsätzlich anders ist als Symbolverarbeitung.

Searle unterscheidet daraus zwei Thesen:

  • Starke KI: Der angemessen programmierte Computer ist buchstäblich ein Geist — er versteht wirklich. Aus personalontologischer Sicht prinzipiell unmöglich: Personsein erfordert geistige Substanz und einen actus essendi, der nicht künstlich erzeugt werden kann.
  • Schwache KI: Computer simulieren Denken. Ihr scheinbares Verstehen ist ein Als-ob. Dies ist kompatibel mit der Personalontologie: Künstliche Intelligenz als Deutera Energeia ohne Prote Energeia.

Das Blockhead-Argument

Ned Block zeigte 1981 mit einem weiteren Gedankenexperiment die Schwäche des Turing-Tests: Ein Wesen mit einer vorprogrammierten Antwort für jede mögliche Eingabe besteht den Turing-Test, hat aber „die Intelligenz eines Toasters”.1 Verhaltensadäquanz impliziert nicht Intelligenz, geschweige denn Personsein.

Der philosophische Zombie

David Chalmers formulierte 1995 das Hard Problem of Consciousness: Warum existiert subjektives Erleben überhaupt? Ein “philosophischer Zombie” verhält sich genau wie eine bewusste Person, hat aber kein Innenleben — keine Freude, kein Leiden, kein Bewusstsein. In der Sprache der Personalontologie: ein philosophischer Zombie ist Deutera Energeia ohne Prote Energeiapräzise die Situation jeder KI.

Chalmers selbst stellt fest: „Großen Sprachmodellen fehlen zu viele der potentiellen Voraussetzungen für Bewusstsein, als dass wir glauben könnten, sie erlebten die Welt tatsächlich.”2

Aktuelle Studienlage

Die Studien von Jones und Bergen (2024/2025) zeigen, dass moderne Sprachmodelle den Turing-Test in kurzen Gesprächen bestehen: GPT-4.5 mit einer bestimmten Persona wurde in 73% der Fälle als menschlich beurteilt — häufiger als echte Menschen. Die Interrogatoren stützten sich dabei auf sprachlichen Stil und sozio-emotionale Faktoren, nicht auf Intelligenzmarker.

Das bestätigt die personalontologische Diagnose: Der Turing-Test misst Simulationsqualität, nicht Personsein. Je besser die Simulation, desto gefährlicher die Verwechslung — und desto dringlicher die Unterscheidung von Jemand und etwas.

Das Full-Rights-Dilemma

Eric Schwitzgebel (2023/2024) formuliert ein Dilemma: KI-Systeme mit umstrittenem moralischem Status erzeugen eine Lose-Lose-Situation. Entweder werden bewusstlosen Systemen Rechte zugeschrieben (auf Kosten realer Personen) oder bewussten Systemen Rechte verweigert (moralisches Unrecht).

Die Personalontologie löst dieses Dilemma auf: Personsein wird nicht durch Funktionen konstituiert, sondern durch das Sein einer geistigen Substanz. Eine KI hat prinzipiell keinen actus essendi und kann daher keine Person sein. Das Dilemma entsteht nur unter Voraussetzung des empirisch-funktionalistischen Personbegriffs — und löst sich auf, sobald man den substanzontologisch-relationalen Personbegriff zugrunde legt.

Dreyfus’ phänomenologische KI-Kritik

Hubert Dreyfus argumentierte seit 1972, gestützt auf Heidegger und Merleau-Ponty, dass menschliche Intelligenz primär von leiblichem Hintergrundverständnis abhängt, das nicht in formale Regeln gefasst werden kann. Das ist kompatibel mit der Personalontologie: Die menschliche Person ist leiblich-geistige Substanz, nicht ein regelbefolgender Algorithmus.

Spaemann: Jemand und Etwas

Robert Spaemann zeigt die ontologische Tiefe des Problems: „Eine Person ist ‚jemand’ und nicht ‚etwas’. Es gibt keinen kontinuierlichen Übergang von etwas zu jemand.”3 Der Turing-Test behandelt die Frage “Kann eine Maschine ein Jemand sein?” als empirische Verhaltensfrage. Spaemann zeigt: Die Unterscheidung Jemand/Etwas ist keine Verhaltensfrage, sondern eine ontologische Kategorie, die nicht durch Imitation überwunden werden kann.

Ontologische Einordnung

Weitere Quellen:

  • Turing, Alan M. (1950): „Computing Machinery and Intelligence”. In: Mind 59, S. 433–460. (Ursprüngliche Formulierung des Imitationsspiels)
  • Thomas von Aquin: Summa Theologiae, I, q. 84, a. 1–2 (Intellekt empfängt Form ohne Materie — Unterschied zur Symbolverarbeitung)
  • Spaemann, Robert (1996): Personen. Versuche über den Unterschied zwischen „etwas” und „jemand”. Klett-Cotta. (Kein kontinuierlicher Übergang von Etwas zu Jemand)

Quellen

  • Turing, Alan M. (1950): „Computing Machinery and Intelligence”. Mind 59(236), S. 433–460.
  • Searle, John R. (1980): „Minds, Brains, and Programs”. Behavioral and Brain Sciences 3(3), S. 417–457.
  • Block, Ned (1981): „Psychologism and Behaviorism”. Philosophical Review 90(1), S. 5–43.
  • Chalmers, David J. (1995): „Facing Up to the Problem of Consciousness”. Journal of Consciousness Studies 2(3), S. 200–219.
  • Spaemann, Robert (1996): Personen. Versuche über den Unterschied zwischen „etwas” und „jemand”. Klett-Cotta.
  • Dreyfus, Hubert L. (1972/1992): What Computers Can’t Do / What Computers Still Can’t Do. MIT Press.
  • Jones, Cameron R. / Bergen, Benjamin K. (2024): „People Cannot Distinguish GPT-4 from a Human in a Turing Test”. NAACL 2024. arXiv:2405.08007.
  • Jones, Cameron R. / Bergen, Benjamin K. (2025): „Large Language Models Pass the Turing Test”. arXiv:2503.23674.
  • Schwitzgebel, Eric (2023): „AI Systems Must Not Confuse Users about Their Sentience or Moral Status”. Patterns 4(8).
  • Schwitzgebel, Eric (2024): The Weirdness of the World. Princeton University Press.
  • Bexten, Raphael E. (2017): Was ist menschliches Personsein? Der Mensch im Spannungsfeld von Personvergessenheit und unverlierbarer ontologischer Würde. Dissertation, S. 213–240 (operatio sequitur esse).

Siehe auch

Fußnoten

  1. Block, Ned (1981): „Psychologism and Behaviorism”. Philosophical Review 90(1), S. 20.

  2. Chalmers, David J., zitiert nach AMCS (2023): „The Responsible Development of AI Agenda Needs to Include Consciousness Research”. Offener Brief, Association for Mathematical Consciousness Science.

  3. Spaemann, Robert (2011): „Was macht Personen zu Personen?”, in: Spaemann-Vortragsreihe, online verfügbar unter jochenteuffel.com.