Dlaczego projekty AI w HR nie udają się
Większość projektów AI nie zawodzi z powodu technologii. Zawodzą z powodu brakujących reguł gry. Dlaczego model operacyjny jest ważniejszy niż model językowy.
Projekt pilotażowy, który zadziałał – i potem zniknął
Dział HR uruchamia projekt AI. Agent przetwarza zwolnienia lekarskie: czyta dokument, wyodrębnia dane, sprawdza wobec układu zbiorowego, tworzy propozycję dla SAP SuccessFactors. W pilocie wszystko działa. Trafność wynosi 94%. Czas przetwarzania spada z 45 minut do 5 minut.
Sześć miesięcy później: Agent nadal działa w pilocie. Nie dlatego, że technologia zawiodła. Lecz dlatego, że nikt nie odpowiedział na pytania, które pojawiają się po pilocie:
Kto zatwierdza księgowanie proponowane przez agenta? Co się dzieje, gdy agent się myli – kto ponosi odpowiedzialność? Czy logika obowiązuje również dla oddziału w Monachium, gdzie obowiązuje inny układ zbiorowy? Czy agent może automatycznie zainicjować procedurę BEM przy chorobie długoterminowej, czy o tym musi zdecydować człowiek? Co mówi Rada Zakładowa?
To nie są pytania techniczne. To pytania decyzyjne. I dopóki nie zostaną na nie udzielone odpowiedzi, każdy agent pozostaje eksperymentem.
AI-Paradox: Wysokie nakłady, niski zwrot
To, co tu się dzieje, nie jest przypadkiem jednostkowym. To wzorzec, który przewija się przez firmy każdej wielkości.
Większość firm już stosuje AI – przynajmniej w formie chatbotów, licencji Copilot lub pierwszych pilotów. Ale nieliczne raportują, że AI wnosi mierzalny wkład w wyniki.
To jest AI-Paradox: Technologia działa. Ale korzyści nie przychodzą.
Typowe wyjaśnienia nie trafiają w sedno. „Dane nie są wystarczająco dobre” – czasem to prawda, ale jakość danych to rozwiązywalny problem. „Model nie jest wystarczająco dobry” – mało prawdopodobne, gdy widzi się, co potrafią aktualne modele językowe. „Pracownicy boją się AI” – zarządzanie zmianą jest ważne, ale nie wyjaśnia, dlaczego nawet dobrze prowadzone projekty utykają.
Rzeczywista przyczyna jest inna: brakuje architektury decyzyjnej.
Czego brakuje: Nie lepszej technologii – lecz jasnych reguł gry
Agent AI przetwarzający zwolnienia lekarskie podejmuje przy każdym dokumencie pięć do dziesięciu pojedynczych decyzji: Czy dokument jest kompletny? Który układ zbiorowy obowiązuje? Czy występuje choroba długoterminowa? Czy należy zainicjować procedurę BEM? Do jakiego systemu księgować?
Dla każdej z tych decyzji musi być z góry zdefiniowane:
Decyduje człowiek? Na przykład przy chorobach długoterminowych, ponieważ procedura reintegracji wymaga uznaniowości i Rada Zakładowa ma prawo do konsultacji.
Decyduje zestaw reguł? Na przykład przy weryfikacji układu zbiorowego – układ jest jednoznaczny, reguła jest stosowana konsekwentnie.
Decyduje AI samodzielnie? Na przykład przy rozpoznawaniu dokumentów – czy to zwolnienie lekarskie czy zaświadczenie o niezdolności do pracy? Standardowy przypadek, wysokie prawdopodobieństwo.
Bez tego przyporządkowania agent pozostaje czarną skrzynką. Produkuje wyniki, ale nikt nie może prześledzić na jakiej podstawie. Żaden biegły rewident tego nie zaakceptuje. Żadna Rada Zakładowa się na to nie zgodzi. Żaden dział compliance tego nie zwolni.
Proporcja inwestycji: Dlaczego sama technologia nie wystarczy
Doświadczenie branżowe pokazuje zasadę, która wielu zaskakuje: na każde euro w technologię firmy potrzebują cztery do pięciu euro w procesy, governance i zarządzanie zmianą.
To oznacza: kto ma budżet na AI w wysokości 500 000 EUR i wszystko inwestuje w licencje i modele, adresuje około 20% problemu. Pozostałe 80% – projektowanie procesów, reguły decyzyjne, porozumienia zakładowe, szkolenia, struktury governance – pozostają nieopracowane.
To wyjaśnia AI-Paradox. To nie jest problem technologiczny. To problem inwestycyjny. Lub dokładniej: problem dystrybucji inwestycji.
Co to oznacza dla HR
Procesy HR są szczególnie podatne na AI-Paradox. Z trzech powodów:
Po pierwsze: Wysoka złożoność regulacyjna. Układy zbiorowe, porozumienia zakładowe, przepisy krajowe, wewnętrzne wytyczne. Jeden proces jak przetwarzanie zwolnień lekarskich może dotyczyć pięciu różnych zestawów reguł.
Po drugie: Obowiązek konsultacji. W polskich firmach Rada Zakładowa ma prawo do informacji i konsultacji przy wdrażaniu systemów AI przetwarzających dane pracowników. Bez przejrzystej logiki decyzyjnej Rada Zakładowa nie może zweryfikować, co robi agent.
Po trzecie: Odpowiedzialność. Gdy agent wygeneruje błędne rozliczenie wynagrodzenia, odpowiedzialność nie spoczywa na agencie. Odpowiada firma. Bez udokumentowanej ścieżki decyzyjnej nie wiadomo, gdzie powstał błąd.
Najpierw uwidocznić decyzje, potem automatyzować
Rozwiązaniem nie jest mniej AI. Rozwiązaniem jest więcej struktury.
Zanim agent zautomatyzuje proces, proces musi zostać rozłożony na pojedyncze kroki decyzyjne. Dla każdego kroku definiuje się: człowiek, zestaw reguł lub AI. To przyporządkowanie nie jest statyczne – może się zmieniać, gdy zmienia się zestaw reguł lub gdy agent zbiera więcej doświadczenia.
Decision Layer implementuje dokładnie to. Siedzi między AI Agent a systemem docelowym i rozkłada każdy proces biznesowy na udokumentowane kroki decyzyjne. Każdy krok ma jasne przyporządkowanie, wersjonowany zestaw reguł i kompletny Audit Trail.
Wynik: Z eksperymentu AI staje się system produkcyjny. Taki, który Rada Zakładowa może zweryfikować, który biegły rewident zaakceptuje i który konsekwentnie funkcjonuje we wszystkich oddziałach.
Podsumowanie
AI-Paradox nie jest nieuniknionym losem. Jest konsekwencją błędnej alokacji: za dużo inwestycji w technologię, za mało w reguły gry, które określają, co technologia może robić.
Firmy, które to rozumieją, nie inwestują w kolejny model językowy – inwestują w swoją architekturę decyzyjną. I dokładnie tu leży różnica między pilotem AI, który trafia do szuflady, a systemem, który działa w produkcji.