Human-in-the-Loop - Princípio arquitetônico, não checkbox
Human-in-the-Loop em AI Agents significa revisão humana imposta pela arquitetura. Confidence Routing, regras de escalação, verificações de viés.
O problema: HITL como afirmação de marketing
Praticamente todo fornecedor de IA afirma que sua solução tem “Human-in-the-Loop”. Na prática, isso frequentemente significa: em algum lugar do processo existe um botão de aprovação. Um ser humano pode clicar nele. Mas não é obrigado.
Isso não é Human-in-the-Loop. É uma aprovação opcional que desaparece sob pressão de tempo. Quando o analista processa 200 documentos por dia e 195 estão corretos, em algum momento ele vai aprovar todos sem verificar.
Human-in-the-Loop de verdade é um princípio arquitetônico. Significa: para tipos de decisão definidos, o agente não pode fisicamente agir de forma autônoma. O workflow pausa. O sistema-alvo não é acessado. Somente após revisão humana e aprovação documentada o processo continua.
HITL como princípio arquitetônico técnico
Na arquitetura Gosign, o Human-in-the-Loop é implementado no Decision Layer. A decisão sobre quando um ser humano é incluído baseia-se em três critérios:
Confidence Routing: Cada decisão do agente tem um valor de confiança. Se a confiança está abaixo do limiar definido, a escalação é automática. O limiar é configurável por cliente.
Classificação de risco: Determinados tipos de decisão são sempre escalados, independentemente da confiança. Decisões com potencial discriminatório, temas que afetam direitos dos trabalhadores, ultrapassagem de limites de valor.
Escalação obrigatória baseada em regras: Novos conjuntos de regras aplicados pela primeira vez sempre passam por revisão humana na fase de implantação. Somente após uma fase de aprendizagem validada o agente passa para o modo autônomo - exclusivamente para essa regra.
O requisito de Human-in-the-Loop é imposto tecnicamente. Não existe workaround, atalho ou override administrativo. O agente não pode contornar a escalação.
Como HITL funciona na prática
Um agente de RH processa uma solicitação de pagamento especial. O Document Agent lê a solicitação. O Knowledge Agent verifica o ACT (Acordo Coletivo de Trabalho) (PT: Acordo de empresa) vigente. O Decision Layer avalia:
Resultado: pagamento especial aprovável conforme ACT, cláusula 12, parágrafo 3. Confiança: 94%. Risco: baixo.
Porém: a decisão envolve um componente de remuneração. Na configuração HITL, está definido: decisões de remuneração são sempre escaladas, independentemente da confiança. O workflow pausa.
O analista responsável vê no dashboard: a solicitação, a proposta do agente, a regra aplicada na versão atual, o valor de confiança, o motivo da escalação. Ele verifica, confirma ou corrige. Sua decisão é documentada no Audit Trail - incluindo a informação de que se trata de uma decisão Human-in-the-Loop.
HITL e participação dos trabalhadores
Human-in-the-Loop é a resposta técnica a uma exigência organizacional: a participação dos trabalhadores. No Brasil, sindicatos e CRE (PT: Comissão de Trabalhadores) têm direito de participação na implantação de sistemas de IA, conforme previsto na CLT (PT: Código do Trabalho) e nas convenções coletivas, especialmente quando sistemas técnicos monitoram o comportamento ou o desempenho dos trabalhadores.
O Decision Layer transforma ACTs (Acordos Coletivos de Trabalho) em restrições técnicas. Se um ACT determina: “Decisões sobre avaliações de desempenho não podem ser tomadas de forma totalmente automatizada” - isso é implementado como regra HITL no Decision Layer. O agente não pode contornar essa regra.
O resultado: a representação dos trabalhadores pode verificar que suas exigências são impostas tecnicamente - não apenas prometidas organizacionalmente.
HITL e EU AI Act
O EU AI Act exige para sistemas de IA de alto risco supervisão humana (Human Oversight, Art. 14). Processos de RH se enquadram explicitamente na categoria de alto risco: recrutamento, avaliações de desempenho, decisões de promoção, remuneração, desligamento.
Human-in-the-Loop como princípio arquitetônico atende os requisitos do EU AI Act para Human Oversight. Não é suficiente ter um ser humano no processo que teoricamente poderia intervir. O EU AI Act exige supervisão humana efetiva - isso significa: o ser humano deve poder compreender a decisão, deve poder interrompê-la e sua intervenção deve ser documentada.
O Decision Layer documenta em cada decisão HITL: quem revisou? Quando? Qual foi a proposta do agente? Qual foi a decisão humana? Estão em concordância ou divergem?
O limite: o que HITL não resolve
Human-in-the-Loop não é solução para todos os problemas de governance. Concretamente:
HITL não resolve o problema de viés nos dados de treinamento. Se o modelo de linguagem é sistematicamente tendencioso, um analista não detecta isso em casos individuais. Para isso é necessário Bias Monitoring estatístico sobre todas as decisões do agente.
HITL não escala linearmente. Se o agente toma 10.000 decisões por dia e 20% são escaladas, são necessários recursos para 2.000 revisões manuais. Os limiares HITL devem ser calibrados para que a taxa de escalação permaneça gerenciável sem comprometer a governance.
HITL é um componente da arquitetura de governance - junto com Audit Trail, Bias Monitoring, versionamento de conjuntos de regras e controles Cert-Ready.
Mais informações: Decision Layer explicado | Agentes de IA - Guia Enterprise
Agendar reunião - Mostramos como Human-in-the-Loop funciona na sua arquitetura.