Przejdź do treści
Governance & Compliance

Human-in-the-Loop - zasada architektury, nie checkbox

Human-in-the-Loop dla agentow AI oznacza architektonicznie wymuszona kontrole ludzka, nie opcjonalna akceptacje. Confidence Routing, reguly eskalacji, kontrole biasu.

Bert Gogolin
Bert Gogolin
CEO i założyciel 7 min czytania

Problem: HITL jako twierdzenie marketingowe

Niemal kazdy dostawca AI twierdzi, ze jego rozwiazanie posiada “Human-in-the-Loop”. W praktyce czesto oznacza to: gdzies w procesie jest przycisk zatwierdzania. Czlowiek moze go kliknac. Ale nie musi.

To nie jest Human-in-the-Loop. To opcjonalne zatwierdzenie, ktore pod presja czasu zostaje pominiete. Gdy pracownik przetwarza 200 dokumentow dziennie i 195 z nich jest poprawnych, w koncu zacznie zatwierdzac wszystkie bez przegladu.

Prawdziwy Human-in-the-Loop to zasada architektoniczna. Oznacza: przy zdefiniowanych typach decyzji agent fizycznie nie moze dzialac autonomicznie. Workflow sie zatrzymuje. System docelowy nie jest wywolywany. Dopiero po ludzkiej weryfikacji i udokumentowanym zatwierdzeniu proces jest kontynuowany.

HITL jako techniczne zasada architektoniczna

W architekturze Gosign Human-in-the-Loop jest zaimplementowany w Decision Layer. Decyzja o tym, kiedy czlowiek jest wlaczany, opiera sie na trzech kryteriach:

Confidence Routing: Kazda decyzja agenta ma wartosc pewnosci. Jesli pewnosc spada ponizej zdefiniowanego progu, nastepuje automatyczna eskalacja. Prog jest konfigurowalny dla kazdego klienta.

Klasyfikacja ryzyka: Okreslone typy decyzji sa zawsze eskalowane niezaleznie od pewnosci. Decyzje z potencjalem dyskryminacyjnym, kwestie wymagajace konsultacji, przekroczenia progow wartosci.

Regularna obowiazkowa eskalacja: Nowe zestawy regul stosowane po raz pierwszy zawsze przechodza przez ludzka weryfikacje w fazie wdrozeniowej. Dopiero po zwalidowanej fazie uczenia agent przechodzi w tryb autonomiczny - dla tej konkretnej reguly.

Wymaganie Human-in-the-Loop jest technicznie wymuszone. Nie ma obejscia, nie ma skrotu, nie ma nadpisania przez administratora. Agent nie moze ominac eskalacji.

Jak HITL wyglada w praktyce

Agent HR przetwarza wniosek o premia. Document Agent odczytuje wniosek. Knowledge Agent sprawdza obowiazujace porozumienie zakladowe. Decision Layer ocenia:

Wynik: premia kwalifikuje sie do zatwierdzenia zgodnie z porozumieniem zakladowym, paragraf 12, ust. 3. Pewnosc: 94%. Ryzyko: niskie.

Ale: decyzja dotyczy komponentu wynagrodzenia. W konfiguracji HITL zdefiniowano: decyzje o wynagrodzeniach sa zawsze eskalowane, niezaleznie od pewnosci. Workflow sie zatrzymuje.

Odpowiedzialny pracownik widzi w dashboardzie: wniosek, propozycje agenta, zastosowana regule w aktualnej wersji, wartosc pewnosci, powod eskalacji. Weryfikuje, potwierdza lub koryguje. Jego decyzja jest dokumentowana w Audit Trail, lacznie z informacja, ze to byla decyzja Human-in-the-Loop.

HITL i Rada Zakladowa

Human-in-the-Loop to techniczna odpowiedz na wymog organizacyjny: prawo do konsultacji. W Polsce Rada Zakladowa, dzialajaca na podstawie Ustawy o radach pracownikow (2006), ma prawo do informacji i konsultacji przy wdrazaniu systemow technicznych wplywajacych na warunki pracy. Zwiazki zawodowe moga negocjowac szczegolowe warunki w porozumieniach zakladowych.

Decision Layer przeksztalca porozumienia zakladowe w techniczne constrainty. Jesli porozumienie zakladowe stanowi: “Decyzje o ocenach pracowniczych nie moga byc podejmowane w pelni automatycznie” - to jest to implementowane jako regula HITL w Decision Layer. Agent nie moze ominac tej reguly.

Wynik: Rada Zakladowa moze zweryfikowac, ze jej wymagania sa technicznie egzekwowane - nie tylko organizacyjnie obiecane. W przeciwienstwie do niemieckiego modelu, gdzie Rada ma prawo weta, w Polsce prawo do konsultacji nie blokuje wdrozenia, ale pracodawca musi wykazac, ze uwzglednil stanowisko Rady. Decision Layer dokumentuje ten proces automatycznie.

HITL i EU AI Act

EU AI Act wymaga nadzoru ludzkiego (Human Oversight, Art. 14) dla systemow AI wysokiego ryzyka. Procesy HR wyraznie podlegaja kategorii wysokiego ryzyka: rekrutacja, oceny wynikow, awanse, wynagrodzenia, zwolnienia.

Human-in-the-Loop jako zasada architektoniczna spelnia wymagania EU AI Act dotyczace Human Oversight. Nie wystarczy miec czlowieka w procesie, ktory teoretycznie moze interweniowac. EU AI Act wymaga efektywnego nadzoru ludzkiego - to oznacza: czlowiek musi byc w stanie zrozumiec decyzje, musi moc ja zatrzymac, a jego interwencja musi byc udokumentowana.

Decision Layer dokumentuje przy kazdej decyzji HITL: kto weryfikowal, kiedy, jaka byla propozycja agenta, jaka byla ludzka decyzja, czy sie zgadzaja czy roznia.

Granice: czego HITL nie rozwiazuje

Human-in-the-Loop nie jest rozwiazaniem wszystkich problemow governance. Konkretnie:

HITL nie rozwiazuje problemu biasu w danych treningowych. Jesli model jezykowy jest systematycznie uprzedzony, pracownik nie wykryje tego na podstawie pojedynczych przypadkow. Do tego potrzebny jest statystyczny monitoring biasu obejmujacy wszystkie decyzje agentow.

HITL nie skaluje sie liniowo. Jesli agent podejmuje 10 000 decyzji dziennie i 20% jest eskalowanych, potrzebujesz zasobow na 2000 recznych weryfikacji. Progi HITL musza byc skalibrowane tak, aby wskaznik eskalacji pozostal zarzadzalny bez kompromisow w governance.

HITL to jeden element architektury governance - obok Audit Trail, monitoringu biasu, wersjonowania zestawow regul i kontroli Cert-Ready.

Wiecej na ten temat: Konsultacja i AI

Umow spotkanie - Pokazemy, jak Human-in-the-Loop wyglada w Twojej architekturze.

Human-in-the-Loop Governance Konsultacja EU AI Act Decision Layer
Udostępnij artykuł

Najczęściej zadawane pytania

Co oznacza Human-in-the-Loop w kontekscie AI?

Human-in-the-Loop (HITL) oznacza architektonicznie wymuszone wlaczenie czlowieka przy okreslonych decyzjach AI. W kontekscie enterprise to techniczne zasada architektoniczna zapewniajaca, ze zdefiniowane typy decyzji nie moga dotrzec do systemu docelowego bez ludzkiej weryfikacji.

Kiedy czlowiek musi interweniowac?

Przy decyzjach z potencjalem dyskryminacyjnym, przy kwestiach wymagajacych konsultacji z Rada Zakladowa, przy decyzjach powyzej zdefiniowanych progow wartosci, przy pierwszym zastosowaniu nowych regul i przy niskiej pewnosci agenta.

Czy Human-in-the-Loop jest wymagany przez EU AI Act?

Tak. EU AI Act wymaga nadzoru ludzkiego (Human Oversight) dla systemow AI wysokiego ryzyka. Procesy HR takie jak rekrutacja, oceny wynikow i decyzje o wynagrodzeniach podlegaja tej kategorii.

Jaki proces powinien obsługiwać Twój pierwszy agent?

Porozmawiaj z nami o konkretnym przypadku użycia.

Zarezerwuj rozmowę