Trzy rodzaje decyzji: Kiedy człowiek, kiedy AI
Nie każda decyzja wymaga człowieka. I nie każda powinna być pozostawiona AI. Framework przyporządkowania – z konkretnymi przykładami z HR.
Pytanie, które zadaje każdy dział HR
„Jakie decyzje AI może podejmować samodzielnie – a jakie muszą pozostać przy człowieku?”
To pytanie pojawia się w każdej rozmowie o AI w procesach HR. Od Rady Zakładowej, od zarządu, od działu compliance. A typowa odpowiedź – „AI wspiera, człowiek decyduje” – jest zbyt nieprecyzyjna do zastosowania produkcyjnego.
W praktyce bowiem pojedynczy proces HR składa się z dziesiątek pojedynczych decyzji. Przy przetwarzaniu zwolnień lekarskich na przykład: Czy dokument jest kompletny? Który układ zbiorowy obowiązuje? Czy czas choroby przekracza granicę kontynuacji wynagrodzenia? Czy należy wszcząć procedurę reintegracji (BEM)? Kto zostaje poinformowany?
Niektóre z tych decyzji wymagają człowieka. Niektóre nie. A niektóre świadomie NIE powinny leżeć przy człowieku – ponieważ AI podejmuje je udowodnialnie lepiej.
Trzy rodzaje decyzji
Rodzaj 1: Decyduje człowiek
Tutaj człowiek musi podjąć finalną decyzję. Agent może przygotować, zaproponować, zebrać materiały – ale sama decyzja leży przy człowieku.
Kiedy: Margines uznaniowości, ryzyko dyskryminacji, obowiązek konsultacji z Radą Zakładową, indywidualne sytuacje.
Przykład: Reintegracja po długotrwałej chorobie. Agent ma wszystkie dane: czas choroby, historia reintegracji, zalecenia lekarza medycyny pracy, dostępne stanowiska. Ale decyzja, który model reintegracji pasuje do tego konkretnego człowieka, wymaga osoby. Chodzi o indywidualną sytuację, o empatię, o rozmowę z daną osobą. Rada Zakładowa ma prawo do konsultacji w tej sprawie. A gdy decyzja jest błędna, ma realne konsekwencje dla prawdziwego człowieka.
Co robi Decision Layer: Wymusza Human-in-the-Loop. Technicznie, nie organizacyjnie. Agent nie może podjąć tej decyzji autonomicznie – nawet jeśli jego confidence jest wysoki.
Rodzaj 2: Decyduje zestaw reguł
Logika deterministyczna. Jeśli warunek X, to wynik Y. Brak marginesu interpretacji.
Kiedy: Układ zbiorowy, porozumienie zakładowe, prawo podatkowe, zaszeregowanie, kalkulacja terminów.
Przykład: Zaszeregowanie do przedziału wynagrodzeniowego. Nowy pracownik, profil stanowiska jest dostępny, układ zbiorowy jest jednoznaczny. Zaszeregowanie wynika z kryteriów w układzie zbiorowym. To nie jest decyzja wymagająca interpretacji – to zastosowanie reguły. Decision Layer stosuje aktualną wersję reguły i dokumentuje wynik.
Co robi Decision Layer: Zapewnia stosowanie aktualnej wersji reguły. Gdy układ zbiorowy się zmienia, od dnia wejścia w życie obowiązuje nowa wersja – automatycznie, bez konieczności informowania 50 referentów w 12 oddziałach.
Rodzaj 3: AI decyduje samodzielnie
I tu robi się interesująco. Bo ta kategoria jest najczęściej źle opowiadana. Typowe przedstawienie: „W prostych standardowych przypadkach AI też może zdecydować samodzielnie.” Brzmi jak pozwolenie na trywialne rzeczy.
Rzeczywistość jest inna. Istnieją decyzje, w których AI jest nie tylko szybsza, ale udowodnialnie lepsza niż człowiek. Nie dlatego, że AI jest mądrzejsza – lecz dlatego, że nie ma trzech strukturalnych słabości człowieka.
Przewaga 1: Konsekwencja w oddziałach i między osobami
50 referentów w 12 oddziałach stosuje ten sam układ zbiorowy. Każdy interpretuje przypadki graniczne nieco inaczej. W Hamburgu wniosek o świadczenie specjalne zostaje zatwierdzony, w Monachium ten sam przypadek jest odrzucany. To nie jest problem wyszkolenia – to naturalna wariancja ludzkich decyzji przy niejednoznacznych regułach.
AI pracująca na wersjonowanym zestawie reguł decyduje identycznie. Za każdym razem. W każdym oddziale. O 9 rano i o 16 po południu.
Konkretnie: Weryfikacja terminu kontynuacji wynagrodzenia. Ten sam przypadek, ta sama reguła, ten sam wynik. Niezależnie od tego, który referent w którym oddziale obsługuje sprawę.
Przewaga 2: Odporność na zmęczenie
Rekruter ocenia w poniedziałek rano inaczej niż w piątek po południu. Po 50. aplikacji uwaga spada. Poprzedni kandydat był szczególnie silny – następny wydaje się słabszy w porównaniu, choć obiektywnie spełnia wymagania (Anchoring-Bias). Rekruter właśnie dostał złe wiadomości – następne trzy oceny wypadają surowiej (Affect Heuristic).
To nie są osobiste słabości. To ludzka kognicja. Dobrze zbadana, wielokrotnie udowodniona i mierzalna w każdym powtarzalnym procesie decyzyjnym.
AI ocenia aplikację numer 1 z taką samą starannością jak aplikację numer 200. Nie ma złego dnia.
Konkretnie: Dopasowanie wymagań w rekrutacji. Każda aplikacja jest weryfikowana wobec tego samego profilu kryteriów. Nie pod wpływem kolejności aplikacji, nie pory dnia, nie stanu emocjonalnego rekrutera.
Przewaga 3: Kompletność przy weryfikacji reguł
To przewaga, która jest najbardziej niedoceniana.
Referent HR sprawdza zwolnienie lekarskie wobec trzech-czterech kryteriów, które akurat przychodzą mu na myśl: czas choroby, termin kontynuacji wynagrodzenia, może jeszcze próg BEM. Ale czy sprawdza też regulację okresu oczekiwania? Regułę specjalną dla pracowników niepełnoetatowych w układzie zakładowym? Obowiązek zgłoszenia wobec stowarzyszenia branżowego przy określonych schorzeniach? Przypadek specjalny przy wypadkach przy pracy? Regulację dla umów na czas określony?
Za każdym razem? Także w piątek o 16? Także gdy równolegle obsługuje pięć innych spraw?
AI sprawdza wobec wszystkich obowiązujących reguł, w aktualnej wersji, kompletnie i udokumentowanie. Nie dlatego, że jest mądrzejsza – lecz dlatego, że nie zapomina. I dlatego, że jej zestaw reguł nie tkwi w głowach, lecz w wersjonowanym systemie.
Konkretnie: Przetwarzanie zwolnień lekarskich. Agent sprawdza każde eAU wobec wszystkich 12 istotnych kryteriów z układu zbiorowego, porozumienia zakładowego i prawa. Za każdym razem. Wynik: Mniej błędów, które wychodzą na jaw dopiero przy następnej kontroli.
Dlaczego pojedynczy proces zawiera wszystkie trzy rodzaje
Framework staje się praktycznie użyteczny dopiero wtedy, gdy zrozumie się: Pojedynczy proces HR prawie zawsze zawiera WSZYSTKIE trzy typy decyzji.
Weźmy przetwarzanie zwolnień lekarskich jako ciągły przykład:
| Krok | Rodzaj decyzji | Dlaczego |
|---|---|---|
| Odbiór i walidacja danych eAU | AI samodzielnie | Klasyfikacja dokumentów, wysoka trafność, dane wejściowe ustrukturyzowane |
| Porównanie z danymi kadrowymi | Zestaw reguł | Deterministyczne, brak interpretacji |
| Sprawdzenie terminu kontynuacji wynagrodzenia | AI samodzielnie | Sprawdza wobec WSZYSTKICH kryteriów układu zbiorowego, bardziej konsekwentna niż jakikolwiek referent |
| Sprawdzenie obowiązku reintegracji (> 6 tygodni w 12 miesiącach) | Człowiek | Ryzyko dyskryminacji przy danych zdrowotnych, obowiązek konsultacji z Radą Zakładową |
| Poinformowanie przełożonego | AI samodzielnie | Konsekwentna informacja, brak zapominania, brak marginesu interpretacji przy pytaniu CO jest komunikowane (tylko nieobecność i czas trwania, bez diagnozy) |
| Wdrożenie środków reintegracyjnych | Człowiek | Indywidualna sytuacja, margines uznaniowości, konsultacja z Radą Zakładową |
Zwróćcie uwagę na trzeci wiersz: „Sprawdzenie terminu kontynuacji wynagrodzenia” jest przy „AI samodzielnie”, nie przy „Zestaw reguł”. Dlaczego? Ponieważ AI nie stosuje tu prostej logiki jeżeli-to, lecz przeprowadza weryfikację KOMPLETNIE wobec wszystkich obowiązujących zestawów reguł – coś, czego człowiek w praktyce nigdy nie robi kompletnie, bo nie ma wszystkich regulacji specjalnych w głowie.
To jest kluczowy punkt: „AI samodzielnie” to nie kategoria dla trywialnych rzeczy. To kategoria dla decyzji, w których konsekwencja, odporność na zmęczenie i kompletność są ważniejsze niż margines uznaniowości.
Co to oznacza dla Rady Zakładowej
Rada Zakładowa jest często sceptyczna wobec autonomii AI. Słusznie – gdy nie jest jasne, DLACZEGO AI decyduje samodzielnie.
Z frameworkiem trzech rodzajów argumentacja staje się transparentna:
„AI decyduje samodzielnie przy weryfikacji terminów. Nie dlatego, że chcemy oszczędzać etaty. Lecz dlatego, że wiemy, iż 50 referentów w 12 oddziałach oblicza ten sam termin w różny sposób. AI liczy zawsze poprawnie. A gdy nie jest pewna, eskaluje do człowieka. To jest przejrzyste, udokumentowane i w każdej chwili widoczne w portalu audytora.”
To argument, który Rada Zakładowa rozumie. Nie chodzi o zastępowanie, lecz o zapewnienie jakości.
Decision Layer sprawia, że przyporządkowanie staje się operacyjne
Framework pozostaje teorią, jeśli nie jest technicznie egzekwowany. Decision Layer implementuje przyporządkowanie trzech rodzajów dla każdego kroku procesu:
Dla każdej mikro-decyzji jest zdefiniowane: człowiek, zestaw reguł lub AI. Przy decyzjach AI jest udokumentowane, dlaczego AI jest tu właściwym wyborem. Przy decyzjach ludzkich Human-in-the-Loop jest wymuszony technicznie. Przy decyzjach regułowych jest zdeponowana aktualna wersja reguły. Każda decyzja – niezależnie od rodzaju – generuje kompletny wpis w Audit Trail.
Umów spotkanie – Pokażemy Wam na Waszym konkretnym procesie, które decyzje pozostają przy człowieku, a które AI podejmuje lepiej.