Zum Inhalt springen
Governance & Compliance

EU AI Act und HR: Was ab August 2026 für KI in Personalentscheidungen gilt

HR-KI ist Hochrisiko unter dem EU AI Act. Was das konkret bedeutet, welche Pflichten gelten und wie der Decision Layer die Anforderungen architektonisch erfüllt.

Gosign GmbH 6 Min. Lesezeit

Die Einstufung: HR-KI ist Hochrisiko

Der EU AI Act stuft KI-Systeme die in Beschäftigung, Personalmanagement und Zugang zu selbstständiger Erwerbstätigkeit eingesetzt werden, als Hochrisiko ein (Anhang III, Nr. 4). Das betrifft konkret:

KI-Systeme für Recruiting und Bewerberauswahl. KI-Systeme die Einfluss auf Beförderung, Kündigung, Aufgabenzuweisung oder Leistungsüberwachung haben. KI-Systeme die Arbeitsbedingungen beeinflussen – einschließlich Gehaltsanpassungen, Eingruppierungen und Schichtplanung.

Kurz: Fast jeder KI-Agent, der in HR-Prozessen Entscheidungen vorbereitet, unterstützt oder trifft, fällt unter die Hochrisiko-Kategorie.

Die Fristen

Seit August 2025 gelten die Verbote für inakzeptable KI-Praktiken – darunter Social Scoring und manipulative Techniken. Ab August 2026 greifen die vollständigen Pflichten für Hochrisiko-KI-Systeme. Die Übergangsfrist ist nicht großzügig: Unternehmen die heute keine Governance-Strukturen aufbauen, werden im August 2026 nicht compliant sein.

Was konkret gefordert wird – und wie der Decision Layer es erfüllt

Die folgenden Anforderungen gelten für jeden Betreiber eines Hochrisiko-KI-Systems im HR-Bereich:

Artikel 9 – Risikomanagementsystem: Der EU AI Act fordert ein kontinuierliches Risikomanagementsystem das Risiken identifiziert, bewertet und mindert. Im Decision Layer wird das durch Confidence Routing umgesetzt: Jede Agenten-Entscheidung wird automatisch nach Konfidenz und Risikokategorie bewertet. Hohes Risiko oder niedrige Konfidenz führt zur Eskalation an einen Menschen. Die Schwellenwerte sind konfigurierbar und dokumentiert.

Artikel 10 – Datengovernance: Versionierte Regelwerke im Decision Layer stellen sicher, dass die Datengrundlage jeder Entscheidung nachvollziehbar ist. Tarifverträge, Betriebsvereinbarungen und Compliance-Regeln haben Versionen, Gültigkeitsdaten und Geltungsbereiche. Bei einer Prüfung ist nachvollziehbar, welches Regelwerk in welcher Version zum Entscheidungszeitpunkt galt.

Artikel 12 – Aufzeichnungspflichten: Der Audit Trail im Decision Layer erzeugt für jede Entscheidung einen vollständigen, unveränderlichen Datensatz: Input, Modell, Regelwerk, Konfidenz, Routing-Entscheidung, Ergebnis, Zeitstempel. Automatisch, nicht nachträglich zusammengestellt.

Artikel 13 – Transparenz: Jede Agenten-Entscheidung ist im Auditor Portal nachvollziehbar. Betriebsräte, Datenschutzbeauftragte und Prüfer können den Entscheidungspfad einsehen. Keine Blackbox.

Artikel 14 – Menschliche Aufsicht: Human-in-the-Loop ist im Decision Layer ein Architekturprinzip, nicht eine optionale Einstellung. Bei definierten Entscheidungstypen – Diskriminierungspotenzial, Mitbestimmungsthemen, Wertgrenzen – erzwingt die Architektur menschliche Prüfung. Ein Agent kann diese Prüfung nicht umgehen.

Artikel 15 – Genauigkeit, Robustheit und Cybersicherheit: Bias Monitoring prüft systematisch auf diskriminierende Muster. Konfidenz-Schwellenwerte stellen sicher, dass der Agent nur bei ausreichender Sicherheit autonom entscheidet. Modell-Agnostik ermöglicht den Wechsel des Sprachmodells ohne Änderung der Governance-Logik.

Was das für HR-Abteilungen bedeutet

Unternehmen die heute KI in HR-Prozessen einsetzen oder einsetzen wollen, müssen bis August 2026 Governance-Strukturen aufbauen. Das bedeutet konkret:

Dokumentierte Entscheidungslogik für jeden KI-gestützten HR-Prozess. Technisch erzwungene Human-in-the-Loop-Mechanismen für Entscheidungen mit Personalbezug. Prüfungssichere Audit Trails die nachvollziehbar machen, wie jede Entscheidung zustande kam. Bias-Monitoring das diskriminierende Muster erkennt und meldet.

In Deutschland kommen die Anforderungen des Betriebsverfassungsgesetzes hinzu: Betriebsräte haben ein Mitbestimmungsrecht bei technischen Einrichtungen die das Verhalten oder die Leistung von Arbeitnehmern überwachen (§ 87 Abs. 1 Nr. 6 BetrVG). KI-Agenten in HR-Prozessen fallen unter diese Kategorie.

Der Decision Layer adressiert beide Anforderungsblöcke – EU AI Act und deutsches Mitbestimmungsrecht – in einer Architektur.

Decision Layer im Detail

Mitbestimmung und Betriebsrat

HR Agent

Termin vereinbaren – Wir zeigen Ihnen, welche Ihrer HR-Prozesse unter die Hochrisiko-Kategorie fallen und wie der Decision Layer die Anforderungen erfüllt.

EU AI Act HR Hochrisiko Decision Layer Governance Compliance
Artikel teilen

Häufige Fragen

Fallen HR-KI-Systeme unter den EU AI Act?

Ja. KI-Systeme die in Beschäftigung, Personalmanagement und Zugang zu selbstständiger Erwerbstätigkeit eingesetzt werden, fallen unter Anhang III Nr. 4 des EU AI Act und gelten als Hochrisiko-KI-Systeme.

Ab wann gelten die Hochrisiko-Pflichten?

Die Pflichten für Hochrisiko-KI-Systeme nach EU AI Act gelten ab August 2026. Verbotene KI-Praktiken gelten bereits seit August 2025.

Was passiert wenn ein Unternehmen die Pflichten nicht erfüllt?

Bußgelder bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes. Zusätzlich Reputationsrisiken und potenzielle Haftungsansprüche.

Wie erfüllt der Decision Layer die AI-Act-Anforderungen?

Der Decision Layer bildet die Anforderungen architektonisch ab: Risikomanagement durch Confidence Routing, Datengovernance durch versionierte Regelwerke, Transparenz durch Audit Trail, menschliche Aufsicht durch Human-in-the-Loop.

Welcher Prozess soll Ihr erster Agent übernehmen?

Sprechen Sie mit uns über einen konkreten Use Case.

Termin vereinbaren