Warum KI-Projekte in HR scheitern
Die meisten KI-Projekte scheitern nicht an der Technologie. Sie scheitern an fehlenden Spielregeln. Warum das Operating Model wichtiger ist als das Sprachmodell.
Ein Pilotprojekt, das funktioniert hat – und dann verschwand
Eine HR-Abteilung startet ein KI-Projekt. Ein Agent verarbeitet Krankmeldungen: liest das Dokument, extrahiert die Daten, prüft gegen den Tarifvertrag, erstellt einen Vorschlag für SAP SuccessFactors. Im Piloten funktioniert alles. Die Trefferquote liegt bei 94%. Die Bearbeitungszeit sinkt von 45 Minuten auf 5 Minuten.
Sechs Monate später: Der Agent läuft immer noch im Piloten. Nicht weil die Technologie versagt hat. Sondern weil niemand die Fragen beantwortet hat, die nach dem Piloten kommen:
Wer genehmigt die Buchung die der Agent vorschlägt? Was passiert wenn der Agent falsch liegt – wer haftet? Gilt die Logik auch für Standort München, wo ein anderer Tarifvertrag gilt? Darf der Agent bei Langzeiterkrankungen automatisch ein BEM-Verfahren einleiten, oder muss das ein Mensch entscheiden? Was sagt der Betriebsrat?
Das sind keine technischen Fragen. Es sind Entscheidungsfragen. Und solange sie nicht beantwortet sind, bleibt jeder Agent ein Experiment.
Das AI-Paradox: Hoher Einsatz, niedriger Nutzen
Was hier passiert, ist kein Einzelfall. Es ist ein Muster das sich durch Unternehmen jeder Größe zieht.
Die meisten Unternehmen setzen bereits KI ein – mindestens in Form von Chatbots, Copilot-Lizenzen oder ersten Piloten. Aber die wenigsten berichten, dass KI einen messbaren Beitrag zum Ergebnis leistet.
Das ist das AI-Paradox: Die Technologie funktioniert. Aber der Nutzen bleibt aus.
Die üblichen Erklärungen greifen zu kurz. “Die Daten sind nicht gut genug” – stimmt manchmal, aber Datenqualität ist ein lösbares Problem. “Das Modell ist nicht gut genug” – unwahrscheinlich, wenn man sieht was aktuelle Sprachmodelle leisten. “Die Mitarbeiter haben Angst vor KI” – Change Management ist wichtig, erklärt aber nicht warum auch gut begleitete Projekte stecken bleiben.
Die eigentliche Ursache ist eine andere: Es fehlt die Entscheidungsarchitektur.
Was fehlt: Nicht bessere Technologie – sondern klare Spielregeln
Ein KI-Agent der Krankmeldungen verarbeitet, trifft bei jedem Beleg fünf bis zehn einzelne Entscheidungen: Ist das Dokument vollständig? Welcher Tarifvertrag gilt? Liegt eine Langzeiterkrankung vor? Muss ein BEM-Verfahren eingeleitet werden? In welches System wird gebucht?
Für jede einzelne dieser Entscheidungen muss vorab definiert sein:
Entscheidet ein Mensch? Zum Beispiel bei Langzeiterkrankungen, weil ein BEM-Verfahren Ermessensspielraum erfordert und der Betriebsrat ein Mitspracherecht hat.
Entscheidet ein Regelwerk? Zum Beispiel bei der Tarifvertrags-Prüfung – der Tarifvertrag ist eindeutig, die Regel wird konsistent angewandt.
Entscheidet die KI eigenständig? Zum Beispiel bei der Dokumentenerkennung – ist das eine Krankmeldung oder eine Arbeitsunfähigkeitsbescheinigung? Standardfall, hohe Sicherheit.
Ohne diese Zuordnung bleibt der Agent eine Blackbox. Er produziert Ergebnisse, aber niemand kann nachvollziehen auf welcher Grundlage. Kein Wirtschaftsprüfer akzeptiert das. Kein Betriebsrat stimmt dem zu. Keine Compliance-Abteilung gibt das frei.
Die Investment-Ratio: Warum Technologie allein nicht reicht
Branchenerfahrung zeigt eine Faustregel die viele überrascht: Für jeden Euro in Technologie brauchen Unternehmen vier bis fünf Euro in Prozesse, Governance und Veränderungsmanagement.
Das bedeutet: Wer ein KI-Budget von 500.000 EUR hat und alles in Lizenzen und Modelle investiert, adressiert etwa 20% des Problems. Die restlichen 80% – Prozessdesign, Entscheidungsregeln, Betriebsvereinbarungen, Schulungen, Governance-Strukturen – bleiben unbearbeitet.
Das erklärt das AI-Paradox. Es ist kein Technologie-Problem. Es ist ein Investitions-Problem. Oder genauer: ein Investitions-Verteilungs-Problem.
Was das für HR bedeutet
HR-Prozesse sind besonders anfällig für das AI-Paradox. Aus drei Gründen:
Erstens: Hohe Regelkomplexität. Tarifverträge, Betriebsvereinbarungen, länderspezifische Gesetze, interne Richtlinien. Ein einziger Prozess wie die Krankmeldungsverarbeitung kann fünf verschiedene Regelwerke berühren.
Zweitens: Mitbestimmung. In Deutschland hat der Betriebsrat bei KI-Systemen die Mitarbeiterdaten verarbeiten ein Mitspracherecht. Ohne nachvollziehbare Entscheidungslogik kann der Betriebsrat nicht prüfen, was der Agent tut.
Drittens: Haftung. Wenn ein Agent eine fehlerhafte Gehaltsabrechnung erzeugt, haftet nicht der Agent. Es haftet das Unternehmen. Ohne dokumentierten Entscheidungspfad ist unklar, wo der Fehler entstanden ist.
Erst die Entscheidungen sichtbar machen, dann automatisieren
Die Lösung ist nicht weniger KI. Die Lösung ist mehr Struktur.
Bevor ein Agent einen Prozess automatisiert, muss der Prozess in einzelne Entscheidungsschritte zerlegt werden. Für jeden Schritt wird definiert: Mensch, Regelwerk oder KI. Diese Zuordnung ist nicht statisch – sie kann sich ändern, wenn ein Regelwerk sich ändert oder wenn der Agent mehr Erfahrung sammelt.
Der Decision Layer implementiert genau das. Er sitzt zwischen dem AI Agent und dem Zielsystem und zerlegt jeden Geschäftsprozess in dokumentierte Entscheidungsschritte. Jeder Schritt hat eine klare Zuordnung, ein versioniertes Regelwerk und einen vollständigen Audit Trail.
Das Ergebnis: Aus einem KI-Experiment wird ein produktives System. Eines das der Betriebsrat prüfen kann, das der Wirtschaftsprüfer akzeptiert und das über Standorte hinweg konsistent funktioniert.
Fazit
Das AI-Paradox ist kein unvermeidliches Schicksal. Es ist die Konsequenz einer Fehlallokation: zu viel Investment in Technologie, zu wenig in die Spielregeln die bestimmen, was die Technologie tun darf.
Unternehmen die das verstehen, investieren nicht in das nächste Sprachmodell – sie investieren in ihre Entscheidungsarchitektur. Und genau dort liegt der Unterschied zwischen einem KI-Piloten der in der Schublade landet und einem System das in Produktion läuft.
→ Decision Layer – Übersicht und Beispiele
→ Drei Arten von Entscheidungen: Wann der Mensch, wann die KI