Por que projetos de IA em RH fracassam
A maioria dos projetos de IA não fracassa por causa da tecnologia. Fracassa pela falta de regras. Por que o modelo operacional importa mais que o modelo de linguagem.
Um piloto que funcionou – e depois desapareceu
Um departamento de RH inicia um projeto de IA. Um agent processa atestados médicos: lê o documento, extrai dados, verifica contra o acordo coletivo, cria uma proposta para SAP SuccessFactors. No piloto tudo funciona. A precisão é de 94%. O tempo de processamento cai de 45 minutos para 5 minutos.
Seis meses depois: o agent ainda está no piloto. Não porque a tecnologia falhou. Mas porque ninguém respondeu as perguntas que vêm depois do piloto:
Quem aprova o lançamento que o agent propõe? O que acontece se o agent erra – quem é responsável? A lógica vale também para a filial em Munique, onde vigora outro acordo coletivo? O agent pode iniciar automaticamente um procedimento de reintegração em caso de afastamento prolongado, ou isso deve ser decidido por um humano? O que diz o comitê de empresa?
Não são perguntas técnicas. São perguntas de decisão. E enquanto não forem respondidas, cada agent é um experimento.
O AI-Paradox: Alto investimento, baixo retorno
O que acontece aqui não é um caso isolado. É um padrão que se repete em empresas de todos os tamanhos.
A maioria das empresas já usa IA – pelo menos na forma de chatbots, licenças de Copilot ou primeiros pilotos. Mas poucas reportam que a IA traz uma contribuição mensurável aos resultados.
Este é o AI-Paradox: a tecnologia funciona. Mas os benefícios não chegam.
As explicações habituais ficam aquém. “Os dados não são bons o suficiente” – às vezes é verdade, mas qualidade de dados é um problema solucionável. “O modelo não é bom o suficiente” – improvável quando se vê o que os modelos de linguagem atuais conseguem. “Os funcionários têm medo de IA” – gestão de mudanças é importante, mas não explica por que até projetos bem conduzidos empacam.
A causa real é outra: falta a arquitetura de decisões.
O que falta: Não melhor tecnologia – mas regras claras
Um agent de IA que processa atestados toma entre cinco e dez decisões individuais por documento: O documento está completo? Qual acordo coletivo se aplica? Há um afastamento prolongado? Deve-se iniciar um procedimento de reintegração? Em qual sistema se lança?
Para cada uma dessas decisões deve estar predefinido:
Decide um humano? Por exemplo em afastamentos prolongados, porque um procedimento de reintegração requer discricionariedade e a representação dos trabalhadores (sindicatos/CRE; PT: Comissão de Trabalhadores) tem direito de participação.
Decide um conjunto de regras? Por exemplo na verificação do acordo coletivo conforme a CLT (PT: Código do Trabalho) — o acordo é claro, a regra é aplicada de forma consistente. Aqui o agente é um executor — não porque não seja capaz de mais, mas porque não há o que interpretar.
Decide a IA de forma autônoma? O agente interpreta documentos, classifica situações, avalia contexto. Isso não é if-then-else — é capacidade de julgamento dentro de limites definidos. O Confidence Routing controla: alta confiança e baixo risco significa decisão autônoma; baixa confiança ou alto risco significa escalação para uma pessoa.
Sem essa atribuição, o agent é uma caixa preta. Produz resultados, mas ninguém consegue rastrear em que base. Nenhum auditor aceita isso. Nenhum comitê aceita isso. Nenhum departamento de compliance libera isso.
A proporção de investimento: Por que tecnologia sozinha não basta
A experiência mostra uma regra que surpreende muitos: para cada euro em tecnologia, empresas precisam de quatro a cinco euros em processos, governance e gestão de mudanças.
Isso significa: quem tem um orçamento de IA de R$ 2,5 milhões e investe tudo em licenças e modelos, aborda aproximadamente 20% do problema. Os 80% restantes – design de processos, regras de decisão, regulamentos internos, treinamentos, estruturas de governance – ficam sem tratamento.
Isso explica o AI-Paradox. Não é um problema de tecnologia. É um problema de investimento. Ou mais precisamente: um problema de distribuição de investimento.
O que isso significa para RH
Processos de RH são especialmente vulneráveis ao AI-Paradox. Por três razões:
Primeiro: Alta complexidade regulatória. Acordos coletivos conforme a CLT, regulamentos internos, leis específicas por país, diretrizes internas. Um único processo como o processamento de atestados pode tocar cinco conjuntos de regras diferentes.
Segundo: Participação. Em empresas com representação dos trabalhadores (sindicatos e, em empresas com mais de 200 empregados, a CRE) ou comitê interno, existe o direito de participação quando sistemas de IA processam dados de funcionários. Sem uma lógica de decisão transparente, o comitê não pode verificar o que o agent faz.
Terceiro: Responsabilidade. Se um agent gera uma folha de pagamento errônea, a responsabilidade não é do agent. É da empresa. Sem um caminho de decisão documentado, não fica claro onde o erro se originou.
Primeiro tornar as decisões visíveis, depois automatizar
A solução não é menos IA. A solução é mais estrutura.
Antes que um agent automatize um processo, o processo deve ser decomposto em passos de decisão individuais. Para cada passo define-se: humano, regras ou IA. Essa atribuição não é estática – pode mudar quando um conjunto de regras muda ou quando o agent ganha experiência.
O Decision Layer implementa exatamente isso. Situa-se entre o AI Agent e o sistema destino e decompõe cada processo de negócio em passos de decisão documentados. Cada passo tem uma atribuição clara, um conjunto de regras versionado e um Audit Trail completo.
O resultado: de um experimento de IA surge um sistema produtivo. Um que o comitê pode verificar, que o auditor aceita e que funciona consistentemente em todas as localidades.
Conclusão
O AI-Paradox não é um destino inevitável. É a consequência de uma má alocação: investimento demais em tecnologia, de menos nas regras que determinam o que a tecnologia pode fazer.
Empresas que entendem isso não investem no próximo modelo de linguagem – investem na sua arquitetura de decisões. E exatamente aí está a diferença entre um piloto de IA que acaba na gaveta e um sistema que funciona em produção.