Pular para o conteúdo
Governance & Compliance

O EU AI Act vale no mundo todo.

O EU AI Act não é excesso de regulação europeia. Ele simplesmente coloca no papel o que todo sistema jurídico já exige: Explique sua decisão.

Bert Gogolin
Bert Gogolin
CEO e fundador 7 min de leitura

Reality Check

Países onde o EU AI Act já é realidade

Cada país com um sistema jurídico onde empresas podem ser responsabilizadas por decisões baseadas em IA.

Legislação explícita de IA
Direito trabalhista/antidiscriminação
Possibilidade de ação civil
Sem sistema jurídico funcional

Sem cor: Países sem sistema judiciário funcional. Se vocês fazem negócios lá, têm outros problemas.

Somália. Sudão do Sul. Iêmen. Líbia. Síria. – Essas são as únicas exceções.

A pergunta de 50 milhões de reais

Uma empresa brasileira usa uma ferramenta de IA para triagem de candidatos. 500 currículos entram, 20 saem. Um dos 480 rejeitados entra com reclamação trabalhista. Não com base no EU AI Act. Com base na CLT e na LGPD – a Lei Geral de Proteção de Dados, que no artigo 20 garante o direito à explicação de decisões automatizadas. E a LGPD prevê multas de até 2% do faturamento, limitadas a R$ 50 milhões por infração.

A pergunta do juiz do trabalho: “Explique como essa decisão foi tomada.”

Silêncio.

Não porque a empresa agiu de má-fé. Mas porque ninguém na empresa consegue explicar como a ferramenta de IA produziu aquelas 480 rejeições. O RH comprou a ferramenta. A TI instalou. E a lógica de decisão está dentro de uma caixa-preta que ninguém consegue abrir.

Isso não é hipotético. Está acontecendo agora. O Brasil tem a Justiça do Trabalho mais ativa do mundo – mais de 3,5 milhões de novos processos por ano. E os juízes do trabalho brasileiros estão cada vez mais atentos ao uso de IA em decisões que afetam trabalhadores.

Accountability não é invenção europeia

A maioria dos executivos arquivou mentalmente o EU AI Act como “regulação europeia.” Isso é um erro caro. O EU AI Act não inventou o princípio de decisões explicáveis. Simplesmente foi o primeiro a colocá-lo no papel especificamente para sistemas de IA.

O princípio em si é universal.

Brasil: A LGPD é uma das legislações de proteção de dados mais robustas do mundo. O artigo 20 garante o direito de solicitar revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. A CLT protege contra discriminação no emprego. O TST (Tribunal Superior do Trabalho) tem demonstrado crescente interesse em como algoritmos afetam decisões trabalhistas. E o Marco Legal de IA (PL 2338/2023) em tramitação no Senado segue a mesma linha do EU AI Act com classificação de risco.

Estados Unidos: Title VII do Civil Rights Act proíbe discriminação em decisões de emprego – desde 1964. A EEOC pode exigir a qualquer momento que uma empresa explique por que rejeitou um candidato. Em Nova York, Local Law 144 exige auditorias de viés obrigatórias para ferramentas de IA em recrutamento desde 2023.

Argentina: A Ley de Contrato de Trabajo protege contra discriminação laboral. A nova Lei de Proteção de Dados Pessoais segue padrões semelhantes à LGPD.

União Europeia: O EU AI Act aplica-se diretamente em todos os 27 estados membros. E empresas brasileiras que operam na UE ou processam dados de cidadãos europeus estão sujeitas a ele.

Dos 193 estados membros da ONU, existem exatamente 5 onde uma empresa não pode ser juridicamente responsabilizada por uma decisão de IA inexplicável. Não porque esses países permitam – mas porque não têm sistema judiciário funcional.

O EU AI Act não é excesso de regulação europeia. É a primeira resposta honesta a uma pergunta universal.

Por que o RH é o Ground Zero

Pirâmide de risco: decisões de RH sobre pessoas carregam o maior risco

Decisões erradas de IA sobre produtos são irritantes. Decisões erradas de IA sobre processos são caras. Decisões erradas de IA sobre pessoas são existenciais – para os afetados e para a empresa.

O RH é a área onde decisões de IA criam a maior superfície de ataque jurídico. Três cenários que já estão acontecendo:

Triagem de CV baseada em IA filtra sistematicamente candidatos com lacunas no currículo. Afetados: mães, pais, pessoas com doenças crônicas, profissionais em transição de carreira. Na legislação brasileira, isso configura discriminação indireta – e a Justiça do Trabalho brasileira tem sido particularmente rigorosa nesses casos.

Análise de sentimento em entrevistas por vídeo interpreta erroneamente diferenças culturais de expressão como sinais negativos. Afetados: candidatos de diferentes contextos culturais e regionais. No Brasil, com sua enorme diversidade cultural, esse risco é amplificado.

Ferramenta de predição de desempenho treinada com dados históricos de promoções reproduz os padrões do passado. Se no passado homens foram promovidos com mais frequência, a ferramenta replica esse padrão. Isso é discriminação de gênero sistemática – automatizada e escalada.

Cada um desses cenários já é acionável judicialmente no Brasil. Não a partir de agosto de 2026. Agora. A CLT, a LGPD e a Constituição Federal já fornecem as bases legais.

E o problema real da discriminação por IA comparada à discriminação humana: um gestor enviesado toma talvez 50 decisões questionáveis por ano. Um algoritmo enviesado toma 50.000. Simultaneamente. Consistentemente. De forma comprovável.

As duas camadas que toda empresa precisa

Governance Layer e Decision Layer: arquitetura de duas camadas

A solução não é complexa – mas exige pensamento arquitetônico. Toda empresa que usa IA para decisões sobre pessoas precisa de duas camadas.

O Decision Layer – a evidência. O Decision Layer decompõe cada processo em etapas de decisão individuais e define para cada etapa: humano, conjunto de regras ou IA. Cada decisão assistida por IA responde: Quais dados entraram? Qual modelo decidiu, em qual versão? Qual foi o resultado e com qual nível de confiança? Um humano revisou o resultado antes de ele entrar em vigor? A decisão é reproduzível?

Isso não é luxo técnico. É o equivalente digital da contabilidade. E assim como nenhuma empresa pode operar sem contabilidade, em breve nenhuma empresa poderá operar sem Decision Layer.

O Governance Layer – as regras do jogo. Antes de a primeira decisão de IA ser tomada: Quais aplicações de IA sequer existem na empresa? A maioria das empresas não sabe. Quão arriscada é cada aplicação – não por categorias regulatórias, mas por impacto real nas pessoas? Quem é responsável? Spoiler: “a TI” não é resposta. Quando um humano deve intervir? E como tudo isso é auditado?

No Brasil, as Comissões Internas de Prevenção de Acidentes (CIPA) e os sindicatos têm papel crescente na discussão sobre implementação de sistemas de IA que afetam decisões trabalhistas. O Ministério Público do Trabalho já demonstrou interesse em investigar o uso de algoritmos discriminatórios em processos seletivos.

O elefante na sala: Shadow AI

Shadow AI iceberg: acima da linha d'água ferramentas oficiais, abaixo uso sem controle nem auditoria

E agora o ponto mais desconfortável. A maioria das empresas debate governance para ferramentas de IA que implantou oficialmente. Enquanto isso, seus funcionários já estão usando ChatGPT, Claude, Copilot e outras ferramentas para preparar decisões – sem que ninguém saiba.

Recrutadores usam ChatGPT para resumir candidaturas. Gestores de equipe pedem ao Copilot que redija recomendações de promoção. O departamento de T&D gera avaliações de desempenho com IA.

Tudo isso está acontecendo. Agora. Sem Decision Layer. Sem Governance Layer. Sem qualquer rastreabilidade.

E quando alguém processar a empresa, a resposta não será “a IA decidiu” – será pior: “Nem sabíamos que a IA estava decidindo.”

A verdadeira pergunta

A pergunta não é: “Estamos em conformidade com o EU AI Act?”

A pergunta é: Conseguimos explicar amanhã – em cada país onde operamos – por que decidimos hoje o que decidimos?

Quem puder responder sim, está automaticamente em conformidade. Com o EU AI Act. Com a LGPD. Com a CLT. Com tudo o que vier.

Quem não puder, não tem um problema regulatório. Tem um problema de governance.

EU AI Act Governance RH Decision Layer Compliance Shadow AI
Compartilhar este artigo

Perguntas frequentes

O EU AI Act se aplica fora da UE?

Diretamente não. Mas o princípio por trás dele – de que empresas precisam poder explicar suas decisões – se aplica em praticamente todos os países com sistema jurídico funcional. Do CLT no Brasil ao Title VII nos EUA.

O que é um Decision Layer?

O Decision Layer decompõe cada processo em etapas de decisão individuais e define para cada etapa: humano, conjunto de regras ou IA. Cada decisão é documentada – quais dados entraram, qual modelo decidiu, com qual nível de confiança.

Por que o RH é particularmente afetado?

Porque decisões de RH são tomadas sobre pessoas. A exposição jurídica em ações de discriminação é a mais alta, a sensibilidade dos dados é máxima e as consequências para os afetados são existenciais.

O que é Shadow AI no contexto de RH?

Shadow AI se refere ao uso descontrolado de ferramentas de IA como ChatGPT ou Copilot por funcionários sem conhecimento da empresa. No RH: recrutadores resumindo candidaturas com ChatGPT ou líderes de equipe escrevendo avaliações de desempenho com Copilot – sem trilha de auditoria e sem governance.

Qual processo seu primeiro agente deveria gerenciar?

Fale conosco sobre um caso de uso concreto na sua organização.

Agendar uma conversa