EU AI Act Readiness
Unsere Architektur adressiert die zentralen Anforderungen des EU AI Act als Designprinzip. Das ist eine Architekturaussage, kein Konformitätszertifikat.
EU AI Act – Relevanz für Enterprise AI-Agenten
Der EU AI Act (Verordnung (EU) 2024/1689) reguliert KI-Systeme in der Europäischen Union. Für Enterprise AI-Agenten die automatisierte oder teilautomatisierte Entscheidungen in geschäftskritischen Prozessen treffen, sind insbesondere vier Bereiche relevant.
Die Gosign-Architektur adressiert diese Bereiche als Designprinzip – nicht als nachträglichen Compliance-Layer.
Vier architektonische Antworten
Art. 13 – Transparenz
Anforderung: Hochrisiko-KI-Systeme müssen so konzipiert sein, dass ihr Betrieb hinreichend transparent ist.
Architektonische Umsetzung: Der Decision Layer dokumentiert jeden Entscheidungspfad vollständig: Input, Modell und Version, fachliche Bewertung, Confidence, angewandtes Regelwerk und Version, resultierendes Ergebnis. Der Audit Trail macht diese Information für Nutzer, Prüfer und Betriebsräte zugänglich.
Art. 14 – Menschliche Aufsicht
Anforderung: Hochrisiko-KI-Systeme müssen so konzipiert sein, dass sie von natürlichen Personen wirksam beaufsichtigt werden können.
Architektonische Umsetzung: Human-in-the-Loop ist ein architektonisch erzwungenes Routing. Bei Bias-Risiko, Diskriminierungspotenzial, Mitbestimmungsthemen oder niedriger Confidence wird automatisch ein Mensch eingebunden. Dieses Routing kann nicht durch Konfigurationsänderung umgangen werden.
Art. 12 – Aufzeichnungspflichten
Anforderung: Hochrisiko-KI-Systeme müssen so konzipiert sein, dass sie automatisch Protokolle generieren.
Architektonische Umsetzung: Der Audit Trail erfasst für jede Agenten-Entscheidung: Zeitstempel (UTC), Input-Hash, Modellversion, Regelversion, Confidence Score, Entscheidungspfad, Ergebnis. Unveränderlich, exportierbar (JSON, CSV, PDF), maschinenlesbar, vollständig.
Art. 9 – Risikomanagement
Anforderung: Für Hochrisiko-KI-Systeme muss ein Risikomanagementsystem eingerichtet werden.
Architektonische Umsetzung: Der Governance Layer implementiert: Bias-Monitoring (statistische Überwachung auf systematische Verzerrungen), Confidence-Tracking (Überwachung der Confidence-Scores über Zeit), Anomalie-Erkennung (Erkennung abweichender Entscheidungsmuster), Cert-Ready Controls (Controls als Datenobjekte mit automatischer Evidence-Generierung).
Risikoklassifizierung
Die Einstufung eines AI-Systems in eine Risikoklasse des EU AI Act hängt vom konkreten Einsatzzweck ab:
Potenziell Hochrisiko (je nach Kontext): AI-Agenten die Personalentscheidungen vorbereiten oder beeinflussen, die in der Kreditwürdigkeitsprüfung eingesetzt werden oder die Zugang zu wesentlichen Dienstleistungen beeinflussen.
Nicht Hochrisiko (typischerweise): Document Agents die Dokumente klassifizieren ohne Personalentscheidungen zu treffen, Knowledge Agents die Informationen bereitstellen ohne Entscheidungen zu treffen.
Die Gosign-Architektur ist auf die strengsten Anforderungen ausgelegt. Wenn ein Agent in einem Hochrisiko-Kontext eingesetzt wird, sind die architektonischen Voraussetzungen bereits vorhanden.
Abgrenzung
Diese Seite beschreibt architektonische Maßnahmen, nicht rechtliche Konformität. Die tatsächliche EU AI Act Compliance hängt vom konkreten Einsatzkontext, der Risikoklassifizierung und der rechtlichen Bewertung im Einzelfall ab.
Gosign liefert die technische Architektur die die Anforderungen des EU AI Act adressiert. Die rechtliche Bewertung und die formale Konformitätserklärung obliegen dem Betreiber und seinen Rechtsberatern.
Zusammenfassung
- Transparenz durch vollständige Entscheidungsdokumentation im Decision Layer
- Menschliche Aufsicht durch architektonisch erzwungenes Human-in-the-Loop-Routing
- Aufzeichnungspflichten durch unveränderlichen, exportierbaren Audit Trail
- Risikomanagement durch Bias-Monitoring, Confidence-Tracking und Cert-Ready Controls
Das ist eine Architekturaussage, kein Konformitätszertifikat.
Häufige Fragen zum EU AI Act
Fallen die Gosign AI-Agenten unter den EU AI Act?
AI-Agenten die automatisierte Entscheidungen in HR-Prozessen, Finanzprozessen oder anderen geschäftsrelevanten Bereichen treffen, unterliegen je nach Einsatzbereich und Risikoklasse den Anforderungen des EU AI Act. Die Gosign-Architektur ist darauf ausgelegt, diese Anforderungen zu erfüllen.
Welche Risikoklasse haben die Agenten?
Die Risikoklassifizierung hängt vom konkreten Einsatzzweck ab, nicht vom Agenten selbst. AI-Agenten im HR-Bereich (z.B. Gehalts- oder Personalentscheidungen) können als Hochrisiko-KI eingestuft werden. Die Architektur ist auf die strengsten Anforderungen ausgelegt.
Was ist der Unterschied zwischen EU AI Act Compliance und EU AI Act Readiness?
Compliance ist eine rechtliche Bewertung, die vom konkreten Einsatzkontext abhängt. Readiness bedeutet, dass die Architektur die technischen Voraussetzungen für die Einhaltung der Anforderungen bereits eingebaut hat – Transparenz, Aufsicht, Aufzeichnung und Risikomanagement.
Sprechen Sie mit uns über EU AI Act Readiness.
Compliant by Design. Nicht nachträglich. Nicht optional. Architektonisch.
Gespräch vereinbaren