Der EU AI Act (Verordnung (EU) 2024/1689) ist der erste umfassende horizontale Rechtsrahmen für Künstliche Intelligenz weltweit. Er wurde am 13. Juni 2024 vom Europäischen Parlament und vom Rat angenommen, am 12. Juli 2024 im Amtsblatt der Europäischen Union veröffentlicht und trat am 1. August 2024 in Kraft. Sein Geltungsbeginn ist gestaffelt: Verbote ab 2. Februar 2025, Regeln für Allzweck-KI-Modelle ab 2. August 2025, der Hauptteil ab 2. August 2026, Hochrisiko-Komponenten im Produktrecht ab 2. August 2027.

Die risikobasierte Systematik

Die Verordnung teilt KI-Systeme in vier Stufen mit abgestufter Regulierungstiefe:

Verbotene Praktiken (Art. 5). Absolut untersagt sind unter anderem: unterschwellige Manipulation zum Schaden der Person, Ausnutzung von Verletzlichkeit (Alter, Behinderung, sozio­ökonomische Lage), biometrische Kategorisierung nach sensiblen Merkmalen, Social Scoring durch Behörden, ungezielte Massenaus­lesung von Gesichtsbildern aus dem Internet oder Überwachungs­material zur Erstellung von Gesichtsdatenbanken, Emotions­erkennung am Arbeitsplatz und in Bildungs­einrichtungen (mit engen Ausnahmen), prädiktive Polizeiarbeit auf Basis von Persönlichkeits­profilen, sowie biometrische Echtzeit­fernidentifikation im öffentlichen Raum zu Strafverfolgungszwecken (mit eng umgrenzten Ausnahmen).

Hochrisiko-KI (Art. 6 und Anhang III). Hier fallen Systeme in Bereichen wie kritische Infrastruktur, Bildungs- und Berufs­zulassung, Personalauswahl und -management, essenzielle öffentliche und private Dienste (etwa Kreditwürdigkeit, Lebens- und Krankenversicherung, Notfall­triage), Strafverfolgung, Migration und Grenz­kontrolle, Justiz und demokratische Prozesse. Solche Systeme müssen ein Konformitätsbewertungs­verfahren durchlaufen, ein Risikomanagement­system unterhalten, Datenqualitäts­anforderungen einhalten, Protokoll­pflichten erfüllen, dokumentiert, transparent und menschlich überwacht sein.

Begrenztes Risiko (Transparenzpflichten). Systeme, die mit Menschen interagieren (Chatbots), Deepfakes erzeugen oder Emotionen ableiten, müssen dies kenntlich machen.

Minimales Risiko. Unreguliert, aber Hersteller können sich freiwilligen Verhaltens­kodizes anschließen.

Allzweck-KI-Modelle

Ein eigenes Kapitel (Art. 51 ff.) adressiert General-Purpose AI Models — also große Basismodelle, die viele Aufgaben erfüllen können. Grund­verpflichtungen: technische Dokumentation, Urheber­rechts­compliance bei Trainings­daten, Zusammenfassung der Trainings­inhalte. Modelle mit systemischem Risiko (derzeit anhand eines Schwellenwerts für Trainings­rechenleistung und weiterer Kriterien definiert) unterliegen zusätzlichen Pflichten: Modellbewertung, Risikominderung, Cybersecurity­maßnahmen, Meldung schwerer Vorfälle.

Die personalontologische Würdigung

Aus personalontologischer Sicht ist der AI Act eine Schutzmauer. Seine Verbote (Art. 5) zielen auf jene Praktiken, in denen die Person strukturell instrumentalisiert würde: Manipulation, Ausnutzung, Kategorisierung nach Sensibel­merkmalen, Überwachung in Vertrauens­räumen. Damit nimmt die Verordnung implizit jene Grundeinsicht auf, die die Personalistische Norm begrifflich hält: Die Person darf niemals bloßes Mittel werden.

Zugleich bleibt der Ansatz risikobasiert — also funktional-folgenorientiert. Er fragt nicht nach dem ontologischen Status der Maschine, sondern nach den Auswirkungen ihres Einsatzes. Das ist legitim für eine Verordnung, aber nicht erschöpfend: Die personale Unverfügbarkeit ist kein Risiko, sondern eine Grenze. Die Personalontologie ergänzt den AI Act deshalb um die Frage, die dieser rechts­förmig nicht stellen kann — was ist die Person, deren Rechte hier geschützt werden?

Grenzen des Anwendungsbereichs

Ausdrücklich ausgenommen sind: militärische, verteidigungsbezogene und nationale-Sicherheits-Anwendungen (Art. 2 Abs. 3), reine Forschung und Entwicklung vor dem Inverkehrbringen, sowie Systeme, die ausschließlich für wissenschaftliche Forschung entwickelt werden. Die Lücke bei letalen autonomen Waffensystemen ist also bewusst offen gehalten — sie wird völkerrechtlich in der UN GGE LAWS verhandelt, nicht im AI Act.

Governance und Durchsetzung

Die Umsetzung liegt bei einem AI Office der Europäischen Kommission (zuständig für Allzweck-KI-Modelle) sowie bei nationalen Marktüberwachungs­behörden der Mitgliedstaaten. Ein European Artificial Intelligence Board koordiniert. Sanktionen sind gestaffelt: Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahres­umsatzes bei Verstößen gegen die Verbote; bis zu 15 Millionen Euro oder 3 % bei Verstößen gegen Hochrisiko-Pflichten.

Ontologische Einordnung

Regulierungsgegenstand: Künstliche Intelligenz, algorithmische Entscheidungs­systeme, Allzweck-KI

Ausgenommen: Militär, nationale Sicherheit, reine Forschung

Kapitelzuordnung: Kapitel 5: Personvergessenheit

Siehe auch

Quellenangaben: Recherche 2026; EU-Primärrecht.

Weitere Quellen:

  • Europäische Union (2024): Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung bestimmter Rechtsakte (AI Act). Amtsblatt der EU, L-Serie, 12. Juli 2024.
  • Europäische Kommission (2024 ff.): AI Office — Governance of General-Purpose AI. Brüssel.
  • European Artificial Intelligence Board (laufend): Leitlinien und Durchführungsrechtsakte.