Pular para o conteúdo
RH & People Operations

Por que projetos de IA em RH fracassam

A maioria dos projetos de IA não fracassa por causa da tecnologia. Fracassa pela falta de regras. Por que o modelo operacional importa mais que o modelo de linguagem.

Bert Gogolin
Bert Gogolin
CEO e fundador 6 min de leitura

Um piloto que funcionou – e depois desapareceu

Um departamento de RH inicia um projeto de IA. Um agent processa atestados médicos: lê o documento, extrai dados, verifica contra o acordo coletivo, cria uma proposta para SAP SuccessFactors. No piloto tudo funciona. A precisão é de 94%. O tempo de processamento cai de 45 minutos para 5 minutos.

Seis meses depois: o agent ainda está no piloto. Não porque a tecnologia falhou. Mas porque ninguém respondeu as perguntas que vêm depois do piloto:

Quem aprova o lançamento que o agent propõe? O que acontece se o agent erra – quem é responsável? A lógica vale também para a filial em Munique, onde vigora outro acordo coletivo? O agent pode iniciar automaticamente um procedimento de reintegração em caso de afastamento prolongado, ou isso deve ser decidido por um humano? O que diz o comitê de empresa?

Não são perguntas técnicas. São perguntas de decisão. E enquanto não forem respondidas, cada agent é um experimento.

O AI-Paradox: Alto investimento, baixo retorno

O que acontece aqui não é um caso isolado. É um padrão que se repete em empresas de todos os tamanhos.

A maioria das empresas já usa IA – pelo menos na forma de chatbots, licenças de Copilot ou primeiros pilotos. Mas poucas reportam que a IA traz uma contribuição mensurável aos resultados.

Este é o AI-Paradox: a tecnologia funciona. Mas os benefícios não chegam.

As explicações habituais ficam aquém. “Os dados não são bons o suficiente” – às vezes é verdade, mas qualidade de dados é um problema solucionável. “O modelo não é bom o suficiente” – improvável quando se vê o que os modelos de linguagem atuais conseguem. “Os funcionários têm medo de IA” – gestão de mudanças é importante, mas não explica por que até projetos bem conduzidos empacam.

A causa real é outra: falta a arquitetura de decisões.

O que falta: Não melhor tecnologia – mas regras claras

Um agent de IA que processa atestados toma entre cinco e dez decisões individuais por documento: O documento está completo? Qual acordo coletivo se aplica? Há um afastamento prolongado? Deve-se iniciar um procedimento de reintegração? Em qual sistema se lança?

Para cada uma dessas decisões deve estar predefinido:

Decide um humano? Por exemplo em afastamentos prolongados, porque um procedimento de reintegração requer discricionariedade e a representação dos trabalhadores (sindicatos/CRE; PT: Comissão de Trabalhadores) tem direito de participação.

Decide um conjunto de regras? Por exemplo na verificação do acordo coletivo conforme a CLT (PT: Código do Trabalho) — o acordo é claro, a regra é aplicada de forma consistente. Aqui o agente é um executor — não porque não seja capaz de mais, mas porque não há o que interpretar.

Decide a IA de forma autônoma? O agente interpreta documentos, classifica situações, avalia contexto. Isso não é if-then-else — é capacidade de julgamento dentro de limites definidos. O Confidence Routing controla: alta confiança e baixo risco significa decisão autônoma; baixa confiança ou alto risco significa escalação para uma pessoa.

Sem essa atribuição, o agent é uma caixa preta. Produz resultados, mas ninguém consegue rastrear em que base. Nenhum auditor aceita isso. Nenhum comitê aceita isso. Nenhum departamento de compliance libera isso.

A proporção de investimento: Por que tecnologia sozinha não basta

A experiência mostra uma regra que surpreende muitos: para cada euro em tecnologia, empresas precisam de quatro a cinco euros em processos, governance e gestão de mudanças.

Isso significa: quem tem um orçamento de IA de R$ 2,5 milhões e investe tudo em licenças e modelos, aborda aproximadamente 20% do problema. Os 80% restantes – design de processos, regras de decisão, regulamentos internos, treinamentos, estruturas de governance – ficam sem tratamento.

Isso explica o AI-Paradox. Não é um problema de tecnologia. É um problema de investimento. Ou mais precisamente: um problema de distribuição de investimento.

O que isso significa para RH

Processos de RH são especialmente vulneráveis ao AI-Paradox. Por três razões:

Primeiro: Alta complexidade regulatória. Acordos coletivos conforme a CLT, regulamentos internos, leis específicas por país, diretrizes internas. Um único processo como o processamento de atestados pode tocar cinco conjuntos de regras diferentes.

Segundo: Participação. Em empresas com representação dos trabalhadores (sindicatos e, em empresas com mais de 200 empregados, a CRE) ou comitê interno, existe o direito de participação quando sistemas de IA processam dados de funcionários. Sem uma lógica de decisão transparente, o comitê não pode verificar o que o agent faz.

Terceiro: Responsabilidade. Se um agent gera uma folha de pagamento errônea, a responsabilidade não é do agent. É da empresa. Sem um caminho de decisão documentado, não fica claro onde o erro se originou.

Primeiro tornar as decisões visíveis, depois automatizar

A solução não é menos IA. A solução é mais estrutura.

Antes que um agent automatize um processo, o processo deve ser decomposto em passos de decisão individuais. Para cada passo define-se: humano, regras ou IA. Essa atribuição não é estática – pode mudar quando um conjunto de regras muda ou quando o agent ganha experiência.

O Decision Layer implementa exatamente isso. Situa-se entre o AI Agent e o sistema destino e decompõe cada processo de negócio em passos de decisão documentados. Cada passo tem uma atribuição clara, um conjunto de regras versionado e um Audit Trail completo.

O resultado: de um experimento de IA surge um sistema produtivo. Um que o comitê pode verificar, que o auditor aceita e que funciona consistentemente em todas as localidades.

Conclusão

O AI-Paradox não é um destino inevitável. É a consequência de uma má alocação: investimento demais em tecnologia, de menos nas regras que determinam o que a tecnologia pode fazer.

Empresas que entendem isso não investem no próximo modelo de linguagem – investem na sua arquitetura de decisões. E exatamente aí está a diferença entre um piloto de IA que acaba na gaveta e um sistema que funciona em produção.

Decision Layer – visão geral e exemplos

Três tipos de decisões: Quando o humano, quando a IA

AI-Paradox Decision Layer HR Governance Enterprise AI
Compartilhar este artigo

Perguntas frequentes

O que é o AI-Paradox?

O AI-Paradox descreve a observação de que a maioria das empresas já usa IA, mas apenas uma fração obtém benefícios mensuráveis. A causa não é a tecnologia, mas a falta de arquitetura de decisões: ninguém definiu quais decisões a IA pode tomar e quais devem permanecer com humanos.

Por que projetos de IA em RH fracassam?

Processos de RH consistem em centenas de decisões individuais – do processamento de atestados a ajustes salariais. Sem uma atribuição clara por passo de decisão (humano, regras ou IA), cada piloto é um caso isolado que não escala.

Qual a diferença entre tecnologia IA e arquitetura de decisões?

Tecnologia IA é o modelo de linguagem (ChatGPT, Claude, Llama). Arquitetura de decisões é a camada acima: quem pode decidir o quê, com base em quais regras, com qual documentação. O Decision Layer implementa essa arquitetura tecnicamente.

Quanto investir em governance em relação à tecnologia?

A experiência mostra: para cada euro em tecnologia, empresas precisam de quatro a cinco euros em processos, governance e gestão de mudanças. Quem investe apenas em tecnologia aborda aproximadamente 20% do problema.

Qual processo seu primeiro agente deveria gerenciar?

Fale conosco sobre um caso de uso concreto na sua organização.

Agendar uma conversa