Abgeleitete Intentionalität bezeichnet die Bedeutung eines Artefakts, die ihm nicht aus sich selbst zukommt, sondern von einem Bewusstsein verliehen wird. Eine Landkarte zeigt nichts an, wenn niemand sie liest. Ein Text bedeutet nichts ohne einen Leser, der die Zeichen versteht. Ein Computerprogramm hat keinen Bezug zur Welt, der nicht von Programmierern und Nutzern her stammt. John Searle hat in Minds, Brains, and Programs (1980) und Intentionality (1983) diese Form der Intentionalität als derivative gegen die originäre Intentionalität eines Bewusstseins gestellt.
Das Chinese-Room-Argument führt dies vor: Eine Person, die ohne Chinesisch-Kenntnisse Schriftzeichen nach einem Regelwerk manipuliert, produziert korrekte Antworten — versteht aber nichts. Syntax allein ist nicht hinreichend für Semantik. Auch ein noch so perfekter Output bleibt parasitär, solange der vermeintliche Sprecher seine Worte nicht selbst meint.
Aktuelle Large-Language-Models wie GPT-5 und Claude Opus 4 produzieren Behauptungen, die für menschliche Leser höchst bedeutungsvoll sind. Smortchkova und Murez (2024) sowie Strachan u. a. (Nature Human Behaviour 2024) zeigen: Die Bedeutung dieser Outputs ist derivativ — sie hängt daran, dass wir mit Sprache etwas meinen. Ohne enaktives Welt-Grounding bleibt das Modell ein syntaktischer Motor. Es kann den Turing-Test bestehen, ohne genuines Verstehen zu haben — und genau das wird von Block (Blockhead-Argument) und Dreyfus als Grenze des Behaviorismus markiert.
Aus substanzontologischer Sicht ist die abgeleitete Intentionalität kein defekter Modus echter Intentionalität, sondern strukturell anders: Sie ist Spur eines vollziehenden Bewusstseins, kein Vollzug. Wer eine Spur mit einem Vollziehenden verwechselt, begeht einen Kategorienfehler. Daniel Dennetts Symmetriethese — beide Formen seien gleichermaßen derivativ — wird mit dem Prinzip agere sequitur esse zurückgewiesen.
Die Unterscheidung hat ethische Konsequenzen: Eine KI ist nicht Träger von Verantwortung, weil sie keinen Akt als eigenen vollzieht. Wahrheitsfähige Akte — ein Urteil fällen, eine Behauptung als die seine übernehmen, ein Versprechen geben — bleiben dem Wesen vorbehalten, das selbst auf das Wahre gerichtet ist.
Ontologische Einordnung: Oberbegriff: Intentionalität; disjunkt zu Originäre Intentionalität.
Quellenangaben: Bexten 2017, S. 68–70 (Grenzen des Funktionalismus).
Weitere Quellen:
- Searle, John R. (1980): „Minds, Brains, and Programs”. Behavioral and Brain Sciences 3(3), S. 417–457.
- Searle, John R. (1983): Intentionality: An Essay in the Philosophy of Mind. Cambridge: Cambridge University Press.
- Smortchkova, Joulia / Murez, Michael (2024): „LLMs, Turing tests and Chinese rooms: the prospects for meaning in large language models”. Inquiry (online first).
- Strachan, James W. A. u. a. (2024): „Testing theory of mind in large language models and humans”. Nature Human Behaviour 8(7), S. 1285–1295.
Siehe auch
- Originäre Intentionalität
- Intentionalität
- Chinese-Room-Argument
- Turing-Test
- Künstliche Intelligenz
- Computationale Intelligenzkonzeption
- Agere sequitur esse
- John Searle
- Hubert Dreyfus
Generiert via Abfrage aus der Personseins-Ontologie.