Przejdź do treści
Governance & Compliance

EU AI Act i HR: Co od sierpnia 2026 obowiazuje dla AI w HR

AI w HR to system wysokiego ryzyka wg EU AI Act. Co to oznacza, jakie obowiazki obowiazuja i jak Decision Layer spelnia wymagania architektonicznie.

Bert Gogolin
Bert Gogolin
CEO i założyciel 6 min czytania

Klasyfikacja: AI w HR to system wysokiego ryzyka

EU AI Act klasyfikuje systemy AI stosowane w zatrudnieniu, zarzadzaniu pracownikami i dostepie do samozatrudnienia jako systemy wysokiego ryzyka (Zalacznik III, nr 4). Dotyczy to konkretnie:

Systemow AI do rekrutacji i selekcji kandydatow. Systemow AI wplywajacych na awanse, zwolnienia, przydzielanie zadan lub monitorowanie wydajnosci. Systemow AI wplywajacych na warunki pracy, w tym dostosowania wynagrodzen, zaszeregowania i planowanie zmian.

Krotko: niemal kazdy agent AI, ktory przygotowuje, wspiera lub podejmuje decyzje w procesach HR, podlega kategorii wysokiego ryzyka.

Terminy

Od sierpnia 2025 obowiazuja zakazy niedopuszczalnych praktyk AI, w tym social scoringu i technik manipulacyjnych. Od sierpnia 2026 wchodza w zycie pelne obowiazki dla systemow AI wysokiego ryzyka. Okres przejsciowy nie jest dlugosci: firmy, ktore dzis nie buduja struktur governance, nie beda zgodne z przepisami w sierpniu 2026.

Co konkretnie jest wymagane i jak Decision Layer to realizuje

Ponizsze wymagania obowiazuja kazdego operatora systemu AI wysokiego ryzyka w obszarze HR:

Artykul 9 - System zarzadzania ryzykiem: EU AI Act wymaga ciaglego systemu zarzadzania ryzykiem, ktory identyfikuje, ocenia i lagodzi ryzyka. W Decision Layer realizowane jest to przez Confidence Routing: kazda decyzja agenta jest automatycznie oceniana pod katem pewnosci i kategorii ryzyka. Wysokie ryzyko lub niska pewnosc prowadzi do eskalacji do czlowieka. Progi sa konfigurowalne i udokumentowane.

Artykul 10 - Governance danych: Wersjonowane zestawy regul w Decision Layer zapewniaja, ze podstawa danych kazdej decyzji jest mozliwa do prosledzenia. Uklady zbiorowe, porozumienia zakladowe i reguly compliance maja wersje, daty waznosci i zakresy stosowania. Podczas kontroli mozna prosledzic, jaki zestaw regul w jakiej wersji obowiazywal w momencie podjecia decyzji.

Artykul 12 - Obowiazki rejestrowania: Audit Trail w Decision Layer generuje dla kazdej decyzji kompletny, niezmienny rekord danych: dane wejsciowe, model, zestaw regul, pewnosc, decyzja routingu, wynik, znacznik czasu. Automatycznie, nie skompilowany po fakcie.

Artykul 13 - Transparentnosc: Kazda decyzja agenta jest mozliwa do prosledzenia w Portalu Audytora. Rady zakladowe, Inspektorzy Ochrony Danych (IOD) i audytorzy moga przegladac sciezke decyzyjna. Zadnej czarnej skrzynki.

Artykul 14 - Nadzor ludzki: Human-in-the-Loop jest w Decision Layer zasada architektoniczna, a nie opcjonalnym ustawieniem. Dla okreslonych typow decyzji, potencjal dyskryminacji, kwestie wspoldzecydowania, progi wartosciowe, architektura wymusza przeglad przez czlowieka. Agent nie moze ominac tej kontroli.

Artykul 15 - Dokladnosc, odpornosc i cyberbezpieczenstwo: Monitoring biasu systematycznie sprawdza wzorce dyskryminacyjne. Progi pewnosci zapewniaja, ze agent podejmuje decyzje autonomicznie tylko przy wystarczajacej pewnosci. Model-agnostyczny design umozliwia zmiane modelu jezykowego bez zmiany logiki governance.

Co to oznacza dla dzialow HR

Firmy, ktore dzis stosuja lub planuja stosowac AI w procesach HR, musza do sierpnia 2026 zbudowac struktury governance. Oznacza to konkretnie:

Udokumentowana logike decyzyjna dla kazdego procesu HR wspomaganego przez AI. Technicznie wymuszone mechanizmy Human-in-the-Loop dla decyzji dotyczacych personelu. Audytowalne Audit Trails umozliwiajace prosledzenie, jak kazda decyzja zostala podjeta. Monitoring biasu wykrywajacy i raportujacy wzorce dyskryminacyjne.

W Polsce dodatkowym wymiarem sa uprawnienia konsultacyjne rad pracownikow oraz zwiazki zawodowe, ktore moga negocjowac warunki wdrozenia systemow AI w miejscu pracy. Ustawa o radach pracownikow daje prawo do informacji i konsultacji w sprawach dotyczacych warunkow pracy, co obejmuje wdrazanie nowych technologii.

Decision Layer adresuje oba bloki wymagan, EU AI Act oraz lokalne przepisy dotyczace wspoldzecydowania, w jednej architekturze.

-> Decision Layer w szczegolach

-> Wspoldzecydowanie i AI

-> HR Agent

Umow spotkanie - Pokazemy, ktore z Twoich procesow HR podlegaja kategorii wysokiego ryzyka i jak Decision Layer spelnia wymagania.

EU AI Act HR Wysokie ryzyko Decision Layer Governance Compliance
Udostępnij artykuł

Najczęściej zadawane pytania

Czy systemy AI w HR podlegaja EU AI Act?

Tak. Systemy AI stosowane w zatrudnieniu, zarzadzaniu pracownikami i dostepie do samozatrudnienia podlegaja Zalacznikowi III nr 4 EU AI Act i sa klasyfikowane jako systemy AI wysokiego ryzyka.

Od kiedy obowiazuja wymogi dla systemow wysokiego ryzyka?

Obowiazki dotyczace systemow AI wysokiego ryzyka wg EU AI Act obowiazuja od sierpnia 2026 roku. Zakaz niedopuszczalnych praktyk AI obowiazuje juz od sierpnia 2025.

Co grozi firmie za niespelnienie wymog?

Kary do 35 milionow euro lub 7% globalnego rocznego obrotu. Dodatkowo ryzyko reputacyjne i potencjalne roszczenia odszkodowawcze. Dla polskich firm dzialajacych na rynku UE te kary obowiazuja w pelnym zakresie.

Jak Decision Layer spelnia wymagania AI Act?

Decision Layer odwzorowuje wymagania architektonicznie: zarzadzanie ryzykiem przez Confidence Routing, governance danych przez wersjonowane zestawy regul, transparentnosc przez Audit Trail, nadzor ludzki przez Human-in-the-Loop.

Jaki proces powinien obsługiwać Twój pierwszy agent?

Porozmawiaj z nami o konkretnym przypadku użycia.

Zarezerwuj rozmowę