Przejdź do treści
Governance & Compliance

EU AI Act obowiązuje na całym świecie.

EU AI Act to nie europejska nadregulacja. Po prostu zapisuje to, czego każdy system prawny już wymaga: Wyjaśnij swoją decyzję.

Bert Gogolin
Bert Gogolin
CEO i założyciel 7 min czytania

Reality Check

Kraje, w których EU AI Act jest już rzeczywistością

Każdy kraj z systemem prawnym, w którym firmy mogą być pociągnięte do odpowiedzialności za decyzje oparte na AI.

Wyraźne ustawodawstwo dotyczące AI
Prawo pracy/antydyskryminacyjne
Możliwość pozwu cywilnego
Brak funkcjonującego systemu prawnego

Nie zaznaczone: Kraje bez funkcjonującego systemu sądowniczego. Jeśli tam prowadzicie biznes, macie inne problemy.

Somalia. Sudan Południowy. Jemen. Libia. Syria. – To jedyne wyjątki.

Pytanie za 3 miliony złotych

Polska firma używa narzędzia AI do rekrutacji. 500 aplikacji na wejściu, 20 na wyjściu. Jeden z 480 odrzuconych kandydatów idzie do sądu pracy. Nie powołuje się na EU AI Act. Powołuje się na Kodeks Pracy – artykuł 183a zakazujący dyskryminacji w zatrudnieniu. Przepis obowiązujący od 2004 roku.

Pytanie sądu: “Proszę wyjaśnić, jak ta decyzja została podjęta.”

Cisza.

Nie dlatego, że firma działała w złej wierze. Dlatego, że nikt w firmie nie potrafi wyjaśnić, jak narzędzie AI wygenerowało te 480 odmów. HR kupił narzędzie. IT je zainstalowało. A logika decyzyjna tkwi w czarnej skrzynce, której nikt nie potrafi otworzyć.

To nie jest scenariusz hipotetyczny. To dzieje się teraz. I nie tylko w Polsce.

Accountability to nie wynalazek europejski

Większość menedżerów schowała EU AI Act do szuflady z napisem “europejska biurokracja”. To kosztowny błąd. EU AI Act nie wymyślił zasady wyjaśnialnych decyzji. Po prostu jako pierwszy skodyfikował ją specjalnie dla systemów AI.

Sama zasada obowiązuje wszędzie.

Polska: Kodeks Pracy art. 183a-183e zakazuje dyskryminacji bezpośredniej i pośredniej. Ustawa o ochronie danych osobowych (implementacja RODO) wymaga transparentności przetwarzania. Państwowa Inspekcja Pracy może kontrolować, jak firma podejmuje decyzje kadrowe. A jako członek UE, EU AI Act obowiązuje bezpośrednio – z pełną mocą prawa europejskiego.

USA: Title VII Civil Rights Act zabrania dyskryminacji w decyzjach personalnych – od 1964 roku. EEOC może w każdej chwili zażądać wyjaśnienia, dlaczego kandydat został odrzucony. W Nowym Jorku Local Law 144 wymaga obowiązkowych audytów bias w narzędziach AI do rekrutacji od 2023 roku.

Brazylia: LGPD artykuł 20 daje wyraźne prawo do wyjaśnienia decyzji automatycznych. Brazylijskie sądy pracy to najaktywniejsze sądy pracy na świecie – ponad 3,5 miliona nowych spraw rocznie.

Chiny: Algorithmic Recommendation Management Provisions obowiązują od 2022 roku. Nawet Chiny wymagają transparentności decyzji algorytmicznych.

Spośród 193 państw członkowskich ONZ, dokładnie w 5 firma nie może zostać pociągnięta do odpowiedzialności za niewytłumaczalną decyzję AI. Nie dlatego, że te kraje na to pozwalają – ale dlatego, że nie mają funkcjonującego systemu sądowniczego.

EU AI Act to nie europejska nadregulacja. To pierwsza uczciwa odpowiedź na uniwersalne pytanie.

Dlaczego HR jest na pierwszej linii frontu

Piramida ryzyka: decyzje HR o ludziach niosą najwyższe ryzyko

Błędne decyzje AI o produktach są irytujące. Błędne decyzje AI o procesach są kosztowne. Błędne decyzje AI o ludziach są egzystencjalne – dla poszkodowanych i dla firmy.

HR to obszar, w którym decyzje AI tworzą największą powierzchnię ataku. Trzy scenariusze, które dzieją się już dziś:

Screening CV oparty na AI systematycznie odrzuca kandydatów z przerwami w karierze. Dotknięci: rodzice, osoby przewlekle chore, osoby zmieniające ścieżkę kariery. W polskim prawie pracy to dyskryminacja pośrednia.

Analiza sentymentu w rozmowach wideo błędnie interpretuje kulturowe różnice w mimice i gestach jako negatywne sygnały. Dotknięci: kandydaci z innym tłem kulturowym. To potencjalnie dyskryminacja etniczna.

Narzędzie do przewidywania wyników trenowane na historycznych danych o awansach reprodukuje wzorce z przeszłości. Jeśli w przeszłości mężczyźni byli awansowani częściej, narzędzie powiela ten schemat. To systematyczna dyskryminacja ze względu na płeć – zautomatyzowana i skalowalna.

Każdy z tych scenariuszy jest już dziś zaskarżalny w większości krajów. Nie od sierpnia 2026. Teraz. Różnica: EU AI Act zmienia to z reaktywnej odpowiedzialności w proaktywny obowiązek.

A prawdziwy problem z dyskryminacją AI w porównaniu z ludzką dyskryminacją: stronniczy menedżer podejmuje może 50 wątpliwych decyzji rocznie. Stronniczy algorytm podejmuje 50 000. Jednocześnie. Konsekwentnie. Udowadnialnie.

Dwie warstwy, których potrzebuje każda firma

Governance Layer i Decision Layer: dwuwarstwowa architektura

Rozwiązanie nie jest skomplikowane – ale wymaga architektonicznego myślenia. Każda firma, która używa AI do decyzji dotyczących ludzi, potrzebuje dwóch warstw.

Decision Layer – dowody. Decision Layer rozkłada każdy proces na pojedyncze kroki decyzyjne i dla każdego kroku definiuje: człowiek, zestaw reguł czy AI. Każda decyzja wspomagana przez AI odpowiada na pytania: Jakie dane weszły? Który model zdecydował, w jakiej wersji? Jaki był wynik i z jakim poziomem pewności? Czy człowiek przejrzał wynik, zanim zaczął obowiązywać? Czy decyzja jest powtarzalna?

To nie jest techniczny dodatek. To cyfrowy odpowiednik księgowości. I tak jak żadna firma nie może działać bez księgowości, wkrótce żadna firma nie będzie mogła działać bez Decision Layer.

Governance Layer – zasady gry. Zanim zapadnie pierwsza decyzja AI: Jakie aplikacje AI w ogóle istnieją w firmie? Większość firm tego nie wie. Jak ryzykowna jest każda aplikacja – nie według kategorii regulacyjnych, ale według realnego wpływu na ludzi? Kto ponosi odpowiedzialność? Spoiler: “IT” to nie odpowiedź. Kiedy musi interweniować człowiek? I jak to wszystko jest audytowane?

W Polsce istotna jest dodatkowa rola Społecznego Inspektora Pracy oraz potencjalna rola związków zawodowych w procesie wdrażania systemów AI, które wpływają na decyzje kadrowe. Transparentność i udokumentowana logika decyzyjna to warunek konieczny dla akceptacji przez pracowników i ich przedstawicieli.

Słoń w pokoju: Shadow AI

Shadow AI góra lodowa: nad wodą oficjalne narzędzia AI, pod wodą niekontrolowane użycie bez śladu audytu

I teraz najbardziej niewygodny punkt. Większość firm dyskutuje o governance dla narzędzi AI, które oficjalnie wdrożyła. W międzyczasie ich pracownicy już dawno korzystają z ChatGPT, Claude, Copilot i innych narzędzi do przygotowywania decyzji – bez wiedzy kogokolwiek.

Rekruterzy używają ChatGPT do podsumowywania aplikacji. Kierownicy zespołów zlecają Copilotowi pisanie rekomendacji awansowych. Dział L&D tworzy z AI oceny pracownicze.

To wszystko dzieje się. Teraz. Bez Decision Layer. Bez Governance Layer. Bez jakiejkolwiek śladowości.

A kiedy ktoś pozwie firmę, odpowiedź nie będzie “AI zdecydowała” – będzie gorsza: “Nie wiedzieliśmy nawet, że AI decydowała.”

Prawdziwe pytanie

Pytanie nie brzmi: “Czy jesteśmy zgodni z EU AI Act?”

Pytanie brzmi: Czy jutro – w każdym kraju, w którym działamy – potrafimy wyjaśnić, dlaczego dzisiaj podjęliśmy taką decyzję?

Kto potrafi odpowiedzieć “tak”, jest automatycznie zgodny. Z EU AI Act. Z RODO. Z Kodeksem Pracy. Ze wszystkim, co jeszcze nadejdzie.

Kto nie potrafi, nie ma problemu z regulacjami. Ma problem z governance.

EU AI Act Governance HR Decision Layer Compliance Shadow AI
Udostępnij artykuł

Najczęściej zadawane pytania

Czy EU AI Act obowiązuje poza UE?

Bezpośrednio nie. Ale zasada stojąca za nim – że firmy muszą umieć wyjaśnić swoje decyzje – obowiązuje w praktycznie każdym kraju z funkcjonującym systemem prawnym. Od Kodeksu Pracy w Polsce po LGPD Art. 20 w Brazylii.

Czym jest Decision Layer?

Decision Layer rozkłada każdy proces na pojedyncze kroki decyzyjne i dla każdego kroku definiuje: człowiek, zestaw reguł czy AI. Każda decyzja jest udokumentowana – jakie dane weszły, który model zdecydował, z jakim poziomem pewności.

Dlaczego HR jest szczególnie narażony?

Ponieważ decyzje HR dotyczą ludzi. Ekspozycja prawna przy roszczeniach o dyskryminację jest najwyższa, wrażliwość danych maksymalna, a konsekwencje dla osób dotkniętych egzystencjalne.

Czym jest Shadow AI w kontekście HR?

Shadow AI to niekontrolowane korzystanie z narzędzi AI takich jak ChatGPT czy Copilot przez pracowników bez wiedzy firmy. W HR: rekruterzy podsumowujący aplikacje za pomocą ChatGPT lub kierownicy zespołów piszący oceny pracownicze z Copilotem – bez żadnego śladu audytu i bez governance.

Jaki proces powinien obsługiwać Twój pierwszy agent?

Porozmawiaj z nami o konkretnym przypadku użycia.

Zarezerwuj rozmowę