Der Rome Call for AI Ethics ist eine gemeinsame Selbstverpflichtung zu einer am Menschen orientierten Entwicklung Künstlicher Intelligenz. Initiiert von der Päpstlichen Akademie für das Leben wurde der Text am 28. Februar 2020 im Vatikan erstmals unterzeichnet — von der Akademie selbst, einer UN-Sonderorganisation (FAO), der italienischen Regierung sowie von zwei führenden internationalen Technologie­unternehmen. Seither ist der Kreis der Unterzeichner kontinuierlich gewachsen; 2023 schlossen sich hochrangige Vertreter aller drei abrahamitischen Religionen dem Call an.

Die sechs Prinzipien

Der Call formuliert sechs Grundsätze, die jede Entwicklung und jeder Einsatz von KI-Systemen zu beachten habe:

  1. Transparenz. KI-Systeme müssen grundsätzlich erklärbar sein.
  2. Inklusion. Die Bedürfnisse aller Menschen sind zu berücksichtigen — niemand darf strukturell ausgeschlossen werden.
  3. Verantwortung. Wer KI-Systeme entwirft und einsetzt, muss verantwortlich handeln und transparent dafür zur Rechenschaft gezogen werden können.
  4. Unparteilichkeit. KI darf nicht voreingenommen agieren oder handeln; ihre Gestaltung muss Diskriminierung entgegenwirken.
  5. Verlässlichkeit. KI-Systeme müssen verlässlich arbeiten können.
  6. Sicherheit und Privatsphäre. Die Systeme müssen sicher sein und die Privatsphäre der Nutzer achten.

Die personalontologische Anschlussfähigkeit

Die sechs Prinzipien sind funktional formuliert — sie schreiben KI-Systemen bestimmte Eigenschaften vor. Der personalontologische Kern liegt hinter diesen Eigenschaften: Es geht darum, dass KI die Person nicht instrumentalisiert, nicht diskriminiert, nicht verdunkelt. Die Personalistische Norm — die Person darf niemals bloßes Mittel werden — ist im Rome Call nicht begrifflich, aber inhaltlich präsent. Das Dokument bildet damit eine Brücke zwischen der philosophisch-theologischen Anthropologie und der technischen Praxis.

Besonders hervorzuheben ist die Grundüberzeugung, dass die ethische Prüfung nicht erst nach der technischen Entwicklung einsetzen dürfe, sondern die Entwicklung selbst formen müsse — eine Forderung, die in der Algorithmenethik unter dem Stichwort ethics by design diskutiert wird.

Die Weiterentwicklung: Abrahamitischer Rome Call (2023)

Im Januar 2023 wurde in Rom eine erweiterte Fassung unterzeichnet, die die drei abrahamitischen Religionen einschließt: Neben der katholischen Kirche (vertreten durch die Päpstliche Akademie für das Leben) trugen hochrangige Repräsentanten des Judentums und des Islam mit. Damit bekommt der Call eine ökumenisch-interreligiöse Trägerschaft, die die anthropologische Grundintuition — die unverfügbare Würde jeder Person — über die innerkatholische Lehre hinaus ausweitet.

Die Grenze des Dokuments

Der Rome Call ist eine Selbstverpflichtung, kein Gesetz. Er erzeugt Verpflichtungen nur für die Unterzeichner und nur in dem Maß, in dem diese ihn intern umsetzen. Seine Wirkung liegt auf der symbolischen und normativen Ebene: Er signalisiert, dass eine breite Koalition aus Religion, internationaler Politik und Technologie­industrie die personale Würde als Maßstab anerkennt. Rechtliche Verbindlichkeit muss durch andere Instrumente — insbesondere den EU AI Act und internationale Abkommen wie die UN GGE LAWS — hergestellt werden.

Ontologische Einordnung

Dokumenttyp: Selbstverpflichtung / interreligiöse Erklärung

Trägerschaft: Päpstliche Akademie für das Leben, UN-Sonderorganisation FAO, italienische Regierung, internationale Technologie­unternehmen, ab 2023 zusätzlich Judentum und Islam

Kapitelzuordnung: Kapitel 5: Personvergessenheit

Siehe auch

Quellenangaben: Recherche 2026; vatikanische Primärdokumente.

Weitere Quellen:

  • Pontifical Academy for Life (2020): Rome Call for AI Ethics. Vatikanstadt, 28. Februar 2020.
  • Pontifical Academy for Life (2023): Rome Call for AI Ethics — Abrahamic Addendum. Rom, Januar 2023.
  • Päpstliche Akademie für das Leben (laufend): Dokumentation der Unterzeichnerinnen und Unterzeichner, www.romecall.org.
  • Pope Francis (2024): Address at G7 Summit, Borgo Egnazia, 14. Juni 2024.