Zum Inhalt springen
Governance & Compliance

Der EU AI Act gilt weltweit.

Der EU AI Act ist kein europäisches Regulierungsprojekt. Er schreibt nur auf, was jedes Rechtssystem der Welt längst verlangt: Erklären Sie Ihre Entscheidung.

Bert Gogolin
Bert Gogolin
CEO & Gründer 7 Min. Lesezeit

Reality Check

Länder, in denen der EU AI Act heute Realität ist

Jedes Land mit einem Rechtssystem, in dem Unternehmen für KI-gestützte Entscheidungen zur Rechenschaft gezogen werden können.

Explizite KI-Gesetzgebung
Arbeits-/Antidiskriminierungsrecht
Zivilrechtliche Klagemöglichkeit
Kein funktionierendes Rechtssystem

Nicht eingefärbt: Länder ohne funktionierendes Gerichtssystem. Wenn Sie dort Geschäfte machen, haben Sie andere Probleme.

Somalia. Südsudan. Jemen. Libyen. Syrien. – Das sind die einzigen Ausnahmen.

Die 3-Millionen-Euro-Frage

Ein deutsches Unternehmen setzt ein KI-Tool im Recruiting ein. 500 Bewerbungen rein, 20 raus. Einer der 480 Abgelehnten klagt. Nicht wegen des EU AI Act. Wegen des Allgemeinen Gleichbehandlungsgesetzes, das es seit 2006 gibt.

Die Frage des Arbeitsgerichts: “Erklären Sie, wie diese Entscheidung zustande kam.”

Stille.

Nicht weil das Unternehmen böswillig gehandelt hat. Sondern weil niemand im Unternehmen erklären kann, wie das KI-Tool die 480 Absagen produziert hat. Die Personalabteilung hat das Tool gekauft. Die IT hat es installiert. Und die Entscheidungslogik steckt in einer Black Box, die niemand öffnen kann.

Das ist keine hypothetische Situation. Das passiert gerade. Und es passiert nicht nur in Deutschland.

Accountability ist kein EU-Konzept

Die meisten Führungskräfte haben den EU AI Act mental als “europäische Regulierung” abgehakt. Das ist ein teurer Denkfehler. Der EU AI Act hat das Prinzip der erklärbaren Entscheidungen nicht erfunden. Er hat es nur als Erster für KI-Systeme aufgeschrieben.

Das Prinzip selbst gilt überall.

USA: Title VII des Civil Rights Act verbietet Diskriminierung bei Personalentscheidungen – seit 1964. Die Equal Employment Opportunity Commission (EEOC) kann jederzeit verlangen, dass ein Unternehmen erklärt, warum ein Kandidat abgelehnt wurde. In New York City verlangt Local Law 144 seit 2023 verpflichtende Bias Audits für KI-Tools im Recruiting.

Brasilien: LGPD Artikel 20 gewährt ein explizites Recht auf Erklärung automatisierter Entscheidungen. Brasilianische Arbeitsgerichte gehören zu den aktivsten weltweit – über 3,5 Millionen neue Verfahren pro Jahr.

China: Die Algorithmic Recommendation Management Provisions gelten seit 2022. Auch China verlangt Transparenz bei algorithmischen Entscheidungen.

Indien: Der IT Act 2000 in Kombination mit dem Industrial Disputes Act gibt Arbeitnehmern Instrumente, automatisierte Entscheidungen anzufechten.

Überall sonst: In jedem Land mit funktionierendem Zivilrecht kann ein Mensch, über den eine KI-Entscheidung getroffen wurde, diese Entscheidung vor Gericht anfechten. Die Frage “Warum?” ist universell – und eine Black Box ist nirgendwo eine akzeptable Antwort.

Von den 193 UN-Mitgliedsstaaten gibt es genau 5, in denen ein Unternehmen für eine unerklärbare KI-Entscheidung nicht rechtlich zur Rechenschaft gezogen werden kann. Nicht weil diese Länder es erlauben – sondern weil sie kein funktionierendes Gerichtssystem haben.

Der EU AI Act ist nicht europäische Überregulierung. Er ist die erste ehrliche Antwort auf eine universelle Frage.

Warum HR das Ground Zero ist

Risikopyramide: HR-Entscheidungen über Menschen haben das höchste Risiko, Prozess-Entscheidungen mittleres, Produkt-Entscheidungen das geringste

KI-Entscheidungen über Produkte sind ärgerlich, wenn sie falsch sind. KI-Entscheidungen über Prozesse sind teuer, wenn sie falsch sind. KI-Entscheidungen über Menschen sind existenzbedrohend – für die Betroffenen und für das Unternehmen.

HR ist der Bereich, in dem KI-Entscheidungen die größte Angriffsfläche bieten. Drei Szenarien die heute schon passieren:

Ein KI-gestütztes CV-Screening filtert systematisch Kandidaten mit Lücken im Lebenslauf. Betroffen: Eltern, chronisch Kranke, Karrierewechsler. Das ist in den meisten Jurisdiktionen mittelbare Diskriminierung.

Eine Sentiment Analysis in Video-Interviews bewertet kulturelle Unterschiede in Gestik und Mimik als negative Signale. Betroffen: Kandidaten mit anderem kulturellen Hintergrund. Das ist potenziell ethnische Diskriminierung.

Ein Performance-Prediction-Tool wird auf historischen Beförderungsdaten trainiert. Wenn in der Vergangenheit Männer häufiger befördert wurden, reproduziert das Tool dieses Muster. Das ist systematische Geschlechterdiskriminierung – automatisiert und skaliert.

Jedes dieser Szenarien ist heute schon in den meisten Ländern einklagbar. Nicht erst ab August 2026. Jetzt. Der Unterschied: Der EU AI Act macht daraus eine proaktive Pflicht statt nur eine reaktive Haftung.

Und das eigentliche Problem an KI-Diskriminierung im Vergleich zu menschlicher Diskriminierung: Ein voreingenommener Manager trifft vielleicht 50 fragwürdige Entscheidungen im Jahr. Ein voreingenommener Algorithmus trifft 50.000. Gleichzeitig. Konsistent. Nachweisbar.

Die zwei Schichten die jedes Unternehmen braucht

Governance Layer und Decision Layer: Zwei-Schichten-Architektur für erklärbare KI-Entscheidungen

Die Lösung ist nicht komplex – aber sie erfordert architekturelles Denken. Jedes Unternehmen das KI für Entscheidungen über Menschen einsetzt, braucht zwei Schichten.

Der Decision Layer – die Beweissicherung. Der Decision Layer zerlegt jeden Prozess in einzelne Entscheidungsschritte und definiert für jeden Schritt: Mensch, Regelwerk oder KI. Jede KI-gestützte Entscheidung beantwortet: Welche Daten flossen ein? Welches Modell hat entschieden, in welcher Version? Was war das Ergebnis und mit welcher Konfidenz? Hat ein Mensch das Ergebnis gesehen, bevor es wirksam wurde? Ist die Entscheidung reproduzierbar?

Das ist kein technisches Nice-to-have. Das ist das digitale Äquivalent einer Buchhaltung. Und genauso wie kein Unternehmen ohne Buchhaltung operieren kann, wird bald kein Unternehmen ohne Decision Layer operieren können.

Der Governance Layer – die Spielregeln. Bevor die erste KI-Entscheidung fällt: Welche KI-Anwendungen gibt es überhaupt im Unternehmen? Die meisten Unternehmen wissen das nicht. Wie riskant ist welche Anwendung – nicht nach regulatorischen Kategorien, sondern nach realem Impact auf Menschen? Wer trägt die Verantwortung? Spoiler: “Die IT” ist keine Antwort. Wann muss ein Mensch eingreifen? Und wie wird das Ganze auditiert?

In Deutschland kommt eine weitere Dimension dazu: der Betriebsrat. Nach BetrVG §87 hat der Betriebsrat Mitbestimmungsrechte bei der Einführung von KI-Systemen, die Entscheidungen über Arbeitnehmer treffen oder deren Verhalten überwachen. Ohne nachvollziehbare Entscheidungslogik, ohne dokumentierten Human-in-the-Loop, ohne Betriebsvereinbarungen als Systemconstraints wird kein Betriebsrat seine Zustimmung geben.

Der Elefant im Raum: Shadow AI

Shadow AI Eisberg: Über der Wasserlinie offizielle KI-Tools mit Governance, unter der Wasserlinie ungeregelter KI-Einsatz ohne Audit Trail

Und jetzt der unbequemste Punkt. Die meisten Unternehmen diskutieren über Governance für KI-Tools, die sie offiziell eingeführt haben. Währenddessen nutzen ihre Mitarbeitenden längst ChatGPT, Claude, Copilot und andere Tools für Entscheidungsvorlagen – ohne dass irgendjemand davon weiß.

Die Recruiter nutzen ChatGPT, um Bewerbungen zusammenzufassen. Die Teamleads lassen sich von Copilot Beförderungsvorschläge formulieren. Die L&D-Abteilung erstellt mit KI Leistungsbeurteilungen.

Das alles passiert. Jetzt. Ohne Decision Layer. Ohne Governance Layer. Ohne jede Nachvollziehbarkeit.

Und wenn jemand klagt, ist die Antwort nicht “die KI hat entschieden” – sondern schlimmer: “Wir wussten nicht mal, dass KI entschieden hat.”

Die eigentliche Frage

Die Frage ist nicht: “Sind wir EU AI Act compliant?”

Die Frage ist: Können wir morgen – in jedem Land, in dem wir operieren – erklären, warum wir heute so entschieden haben?

Wer diese Frage mit Ja beantworten kann, ist automatisch compliant. Mit dem EU AI Act. Mit der DSGVO. Mit EEOC. Mit LGPD. Mit allem, was noch kommt.

Wer sie nicht beantworten kann, hat kein Regulierungsproblem. Sondern ein Governance-Problem.

EU AI Act Governance HR Decision Layer Compliance Shadow AI
Artikel teilen

Häufige Fragen

Gilt der EU AI Act auch außerhalb der EU?

Direkt nein. Aber das Prinzip dahinter – dass Unternehmen Entscheidungen erklären können müssen – gilt in praktisch jedem Land mit funktionierendem Rechtssystem. Von Title VII in den USA bis LGPD Art. 20 in Brasilien.

Was ist ein Decision Layer?

Der Decision Layer zerlegt jeden Prozess in einzelne Entscheidungsschritte und definiert für jeden Schritt: Mensch, Regelwerk oder KI. Jede Entscheidung wird dokumentiert – welche Daten flossen ein, welches Modell hat entschieden, mit welcher Konfidenz.

Warum ist HR besonders betroffen?

Weil HR-Entscheidungen über Menschen getroffen werden. Die rechtliche Angreifbarkeit bei Diskriminierungsklagen ist am höchsten, die Datensensitivität maximal und die Folgen für Betroffene existenziell.

Was ist Shadow AI im HR-Kontext?

Shadow AI bezeichnet den ungeregelten Einsatz von KI-Tools wie ChatGPT oder Copilot durch Mitarbeitende ohne Wissen des Unternehmens. Im HR-Kontext: Recruiter die Bewerbungen mit ChatGPT zusammenfassen oder Teamleads die Beurteilungen mit Copilot formulieren – ohne Audit Trail und ohne Governance.

Welcher Prozess soll Ihr erster Agent übernehmen?

Sprechen Sie mit uns über einen konkreten Use Case.

Termin vereinbaren