Ir al contenido
RRHH & People Operations

Por qué fracasan los proyectos de IA en RRHH

La mayoría de proyectos de IA no fracasan por la tecnología. Fracasan por la falta de reglas. Por qué el modelo operativo importa más que el modelo de lenguaje.

Bert Gogolin
Bert Gogolin
CEO y fundador 6 min de lectura

Un piloto que funcionó – y luego desapareció

Un departamento de RRHH inicia un proyecto de IA. Un agent procesa bajas por enfermedad: lee el documento, extrae datos, verifica contra el convenio colectivo, crea una propuesta para SAP SuccessFactors. En el piloto todo funciona. La precisión es del 94%. El tiempo de procesamiento baja de 45 minutos a 5 minutos.

Seis meses después: el agent sigue en el piloto. No porque la tecnología haya fallado. Sino porque nadie respondió las preguntas que vienen después del piloto:

¿Quién aprueba el asiento que propone el agent? ¿Qué pasa si el agent se equivoca – quién es responsable? ¿La lógica aplica también para la sede de Múnich, donde rige otro convenio colectivo? ¿Puede el agent iniciar automáticamente un procedimiento de reintegración en caso de baja prolongada, o eso debe decidirlo un humano? ¿Qué dice el comité de empresa?

No son preguntas técnicas. Son preguntas de decisión. Y mientras no se respondan, cada agent es un experimento.

La AI-Paradox: Alta inversión, bajo retorno

Lo que ocurre aquí no es un caso aislado. Es un patrón que se repite en empresas de todos los tamaños.

La mayoría de empresas ya usan IA – al menos en forma de chatbots, licencias de Copilot o primeros pilotos. Pero pocas reportan que la IA aporta un beneficio medible a los resultados.

Esta es la AI-Paradox: la tecnología funciona. Pero los beneficios no llegan.

Las explicaciones habituales se quedan cortas. “Los datos no son suficientemente buenos” – a veces es cierto, pero la calidad de datos es un problema resoluble. “El modelo no es suficientemente bueno” – improbable cuando se ve lo que pueden los modelos de lenguaje actuales. “Los empleados temen a la IA” – la gestión del cambio importa, pero no explica por qué también proyectos bien acompañados se estancan.

La causa real es otra: falta la arquitectura de decisiones.

Lo que falta: No mejor tecnología – sino reglas claras

Un agent de IA que procesa bajas toma entre cinco y diez decisiones individuales por documento: ¿Está completo el documento? ¿Qué convenio colectivo aplica? ¿Hay una baja prolongada? ¿Debe iniciarse un procedimiento de reintegración? ¿En qué sistema se contabiliza?

Para cada una de estas decisiones debe estar predefinido:

¿Decide un humano? Por ejemplo en bajas prolongadas, porque un procedimiento de reintegración requiere discrecionalidad y el comité de empresa tiene derecho de participación.

¿Decide un conjunto de reglas? Por ejemplo en la verificación del convenio colectivo — el convenio es claro, la regla se aplica de forma consistente. Aquí el agente es un ejecutor — no porque no pueda más, sino porque no hay nada que interpretar.

¿Decide la IA de forma autónoma? El agente interpreta documentos, clasifica situaciones, evalúa contexto. Esto no es if-then-else — es capacidad de juicio dentro de límites definidos. El Confidence Routing controla: alta confianza y bajo riesgo significa decisión autónoma; baja confianza o alto riesgo significa escalación a una persona.

Sin esta asignación, el agent es una caja negra. Produce resultados, pero nadie puede rastrear en qué base. Ningún auditor lo acepta. Ningún comité de empresa lo aprueba. Ningún departamento de compliance lo libera.

La ratio de inversión: Por qué la tecnología sola no basta

La experiencia muestra una regla que sorprende a muchos: por cada euro en tecnología, las empresas necesitan cuatro a cinco euros en procesos, governance y gestión del cambio.

Esto significa: quien tiene un presupuesto de IA de 500.000 EUR e invierte todo en licencias y modelos, aborda aproximadamente el 20% del problema. El 80% restante – diseño de procesos, reglas de decisión, acuerdos de empresa, formaciones, estructuras de governance – queda sin trabajar.

Esto explica la AI-Paradox. No es un problema de tecnología. Es un problema de inversión. O más precisamente: un problema de distribución de inversión.

Qué significa esto para RRHH

Los procesos de RRHH son especialmente vulnerables a la AI-Paradox. Por tres razones:

Primero: Alta complejidad regulatoria. Convenios colectivos, acuerdos de empresa, leyes específicas por país, directrices internas. Un solo proceso como el procesamiento de bajas puede tocar cinco conjuntos de reglas diferentes.

Segundo: Participación. En empresas con comité de empresa, este tiene derecho de información y consulta conforme al Art. 64 del Estatuto de los Trabajadores cuando los sistemas de IA procesan datos de empleados. Sin una lógica de decisión transparente, el comité no puede ejercer estos derechos ni verificar qué hace el agent.

Tercero: Responsabilidad. Si un agent genera una nómina errónea, la responsabilidad no es del agent. Es de la empresa. Sin un camino de decisión documentado, no queda claro dónde se originó el error.

Primero hacer visibles las decisiones, después automatizar

La solución no es menos IA. La solución es más estructura.

Antes de que un agent automatice un proceso, el proceso debe descomponerse en pasos de decisión individuales. Para cada paso se define: humano, reglas o IA. Esta asignación no es estática – puede cambiar cuando cambia un conjunto de reglas o cuando el agent gana experiencia.

El Decision Layer implementa exactamente esto. Se sitúa entre el AI Agent y el sistema destino y descompone cada proceso de negocio en pasos de decisión documentados. Cada paso tiene una asignación clara, un conjunto de reglas versionado y un Audit Trail completo.

El resultado: de un experimento de IA surge un sistema productivo. Uno que el comité de empresa puede verificar, que el auditor acepta y que funciona consistentemente en todas las sedes.

Conclusión

La AI-Paradox no es un destino inevitable. Es la consecuencia de una mala asignación: demasiada inversión en tecnología, poca en las reglas que determinan lo que la tecnología puede hacer.

Las empresas que entienden esto no invierten en el próximo modelo de lenguaje – invierten en su arquitectura de decisiones. Y exactamente ahí está la diferencia entre un piloto de IA que acaba en un cajón y un sistema que funciona en producción.

Decision Layer – resumen y ejemplos

Tres tipos de decisiones: Cuándo el humano, cuándo la IA

AI-Paradox Decision Layer HR Governance Enterprise AI
Compartir este artículo

Preguntas frecuentes

¿Qué es la AI-Paradox?

La AI-Paradox describe la observación de que la mayoría de empresas ya usan IA, pero solo una fracción obtiene beneficios medibles. La causa no es la tecnología, sino la falta de arquitectura de decisiones: nadie ha definido qué decisiones puede tomar la IA y cuáles deben permanecer en manos humanas.

¿Por qué fracasan los proyectos de IA en RRHH?

Los procesos de RRHH consisten en cientos de decisiones individuales – desde el procesamiento de bajas hasta ajustes salariales. Sin una asignación clara por paso de decisión (humano, reglas o IA), cada piloto es un caso aislado que no escala.

¿Cuál es la diferencia entre tecnología IA y arquitectura de decisiones?

Tecnología IA es el modelo de lenguaje (ChatGPT, Claude, Llama). Arquitectura de decisiones es la capa superior: quién puede decidir qué, en base a qué reglas, con qué documentación. El Decision Layer implementa esta arquitectura técnicamente.

¿Cuánto invertir en governance respecto a tecnología?

La experiencia muestra: por cada euro en tecnología, las empresas necesitan cuatro a cinco euros en procesos, governance y gestión del cambio. Quien solo invierte en tecnología aborda aproximadamente el 20% del problema.

¿Qué proceso debería manejar su primer agente?

Hablemos sobre un caso de uso concreto en su organización.

Agendar una llamada