Zum Inhalt springen
Governance & Compliance

Human-in-the-Loop – Architekturprinzip, nicht Checkbox

Human-in-the-Loop bei KI-Agenten bedeutet architektonisch erzwungene menschliche Prüfung – nicht optionale Freigabe. Confidence Routing, Eskalationsregeln, Bias-Checks.

Gosign GmbH 7 Min. Lesezeit

Das Problem: HITL als Marketing-Behauptung

Fast jeder KI-Anbieter behauptet, seine Lösung habe “Human-in-the-Loop”. In der Praxis bedeutet das oft: Irgendwo im Prozess gibt es einen Freigabe-Button. Ein Mensch kann draufklicken. Muss aber nicht.

Das ist kein Human-in-the-Loop. Das ist eine optionale Freigabe, die unter Zeitdruck wegfällt. Wenn der Sachbearbeiter 200 Belege am Tag verarbeitet und 195 davon korrekt sind, wird er irgendwann alle durchwinken.

Echtes Human-in-the-Loop ist ein Architekturprinzip. Es bedeutet: Bei definierten Entscheidungstypen kann der Agent physisch nicht autonom handeln. Der Workflow pausiert. Das Zielsystem wird nicht angesprochen. Erst nach menschlicher Prüfung und dokumentierter Freigabe geht der Prozess weiter.

HITL als technisches Architekturprinzip

In der Gosign-Architektur ist Human-in-the-Loop im Decision Layer implementiert. Die Entscheidung, wann ein Mensch einbezogen wird, basiert auf drei Kriterien:

Confidence Routing: Jede Agenten-Entscheidung hat einen Konfidenzwert. Liegt die Konfidenz unter dem definierten Schwellenwert, wird automatisch eskaliert. Der Schwellenwert ist mandantenspezifisch konfigurierbar.

Risiko-Klassifizierung: Bestimmte Entscheidungstypen werden unabhängig von der Konfidenz immer eskaliert. Entscheidungen mit Diskriminierungspotenzial, Mitbestimmungsthemen, Wertgrenzenüberschreitungen.

Regelbasierte Pflicht-Eskalation: Neue Regelwerke, die erstmals angewandt werden, durchlaufen immer eine menschliche Prüfung in der Einführungsphase. Erst nach validierter Lernphase wechselt der Agent in den autonomen Modus – für genau diese Regel.

Die Human-in-the-Loop-Anforderung ist technisch erzwungen. Es gibt keinen Workaround, keine Abkürzung, keinen Admin-Override. Der Agent kann die Eskalation nicht umgehen.

Wie HITL in der Praxis aussieht

Ein HR-Agent verarbeitet einen Antrag auf Sonderzahlung. Der Document Agent liest den Antrag. Der Knowledge Agent prüft die geltende Betriebsvereinbarung. Der Decision Layer bewertet:

Ergebnis: Sonderzahlung genehmigungsfähig laut Betriebsvereinbarung §12, Abs. 3. Konfidenz: 94%. Risiko: niedrig.

Aber: Die Entscheidung berührt eine Vergütungskomponente. In der HITL-Konfiguration ist definiert: Vergütungsentscheidungen werden immer eskaliert, unabhängig von der Konfidenz. Der Workflow pausiert.

Der zuständige Sachbearbeiter sieht im Dashboard: Den Antrag, den Vorschlag des Agenten, die angewandte Regel in der aktuellen Version, den Konfidenzwert, den Eskalationsgrund. Er prüft, bestätigt oder korrigiert. Seine Entscheidung wird im Audit Trail dokumentiert – inklusive der Information, dass es sich um eine Human-in-the-Loop-Entscheidung handelt.

HITL und Betriebsrat

Human-in-the-Loop ist die technische Antwort auf eine organisatorische Anforderung: Mitbestimmung. Betriebsräte haben bei der Einführung von KI-Systemen Mitbestimmungsrechte nach §87 Abs. 1 Nr. 6 BetrVG (technische Überwachungseinrichtungen) und nach §90 BetrVG (Gestaltung von Arbeitsplätzen).

Der Decision Layer macht Betriebsvereinbarungen zu technischen Constraints. Wenn eine Betriebsvereinbarung sagt: “Entscheidungen über Leistungsbeurteilungen dürfen nicht vollautomatisiert getroffen werden” – dann wird das als HITL-Regel im Decision Layer implementiert. Der Agent kann diese Regel nicht umgehen.

Das Ergebnis: Der Betriebsrat kann nachvollziehen, dass seine Anforderungen technisch durchgesetzt werden – nicht nur organisatorisch zugesagt.

HITL und EU AI Act

Der EU AI Act verlangt für Hochrisiko-KI-Systeme menschliche Aufsicht (Human Oversight, Art. 14). HR-Prozesse fallen explizit unter die Hochrisiko-Kategorie: Recruiting, Performance Reviews, Beförderungsentscheidungen, Vergütung, Kündigung.

Human-in-the-Loop als Architekturprinzip erfüllt die Anforderungen des EU AI Act an Human Oversight. Es ist nicht ausreichend, einen Menschen im Prozess zu haben, der theoretisch eingreifen könnte. Der EU AI Act verlangt effektive menschliche Aufsicht – das bedeutet: Der Mensch muss die Entscheidung verstehen können, er muss sie stoppen können, und seine Intervention muss dokumentiert werden.

Der Decision Layer dokumentiert bei jeder HITL-Entscheidung: Wer hat geprüft? Wann? Was war der Agent-Vorschlag? Was war die menschliche Entscheidung? Stimmen sie überein oder weichen sie ab?

Die Grenze: Was HITL nicht löst

Human-in-the-Loop ist keine Lösung für alle Governance-Probleme. Konkret:

HITL löst nicht das Problem von Bias in Trainingsdaten. Wenn das Sprachmodell systematisch voreingenommen ist, erkennt ein Sachbearbeiter das nicht an Einzelfällen. Dafür braucht es statistisches Bias-Monitoring über alle Agenten-Entscheidungen hinweg.

HITL skaliert nicht linear. Wenn der Agent 10.000 Entscheidungen pro Tag trifft und 20% eskaliert werden, braucht man Ressourcen für 2.000 manuelle Prüfungen. Die HITL-Schwellenwerte müssen so kalibriert werden, dass die Eskalationsrate handhabbar bleibt, ohne die Governance zu kompromittieren.

HITL ist ein Baustein der Governance-Architektur – zusammen mit Audit Trail, Bias-Monitoring, Regelwerk-Versionierung und Cert-Ready Controls.

Mehr dazu: Mitbestimmung und KI

Termin vereinbaren – Wir zeigen Ihnen, wie Human-in-the-Loop in Ihrer Architektur aussieht.

Human-in-the-Loop Governance Mitbestimmung EU AI Act Decision Layer
Artikel teilen

Häufige Fragen

Was bedeutet Human-in-the-Loop bei KI?

Human-in-the-Loop (HITL) bezeichnet die architektonisch erzwungene Einbeziehung eines Menschen bei bestimmten KI-Entscheidungen. Im Enterprise-Kontext ist es ein technisches Architekturprinzip, das sicherstellt, dass definierte Entscheidungstypen nicht ohne menschliche Prüfung das Zielsystem erreichen.

Wann muss ein Mensch eingreifen?

Bei Entscheidungen mit Diskriminierungspotenzial, bei Mitbestimmungsthemen, bei Entscheidungen oberhalb definierter Wertgrenzen, bei erstmaliger Anwendung neuer Regeln und bei niedriger Konfidenz des Agenten.

Ist Human-in-the-Loop durch den EU AI Act vorgeschrieben?

Ja. Der EU AI Act verlangt für Hochrisiko-KI-Systeme menschliche Aufsicht (Human Oversight). HR-Prozesse wie Recruiting, Performance Reviews und Vergütungsentscheidungen fallen unter diese Kategorie.

Welcher Prozess soll Ihr erster Agent übernehmen?

Sprechen Sie mit uns über einen konkreten Use Case.

Termin vereinbaren