Por qué fracasan los proyectos de IA en RRHH
La mayoría de proyectos de IA no fracasan por la tecnología. Fracasan por la falta de reglas. Por qué el modelo operativo importa más que el modelo de lenguaje.
Un piloto que funcionó – y luego desapareció
Un departamento de RRHH inicia un proyecto de IA. Un agent procesa bajas por enfermedad: lee el documento, extrae datos, verifica contra el convenio colectivo, crea una propuesta para SAP SuccessFactors. En el piloto todo funciona. La precisión es del 94%. El tiempo de procesamiento baja de 45 minutos a 5 minutos.
Seis meses después: el agent sigue en el piloto. No porque la tecnología haya fallado. Sino porque nadie respondió las preguntas que vienen después del piloto:
¿Quién aprueba el asiento que propone el agent? ¿Qué pasa si el agent se equivoca – quién es responsable? ¿La lógica aplica también para la sede de Múnich, donde rige otro convenio colectivo? ¿Puede el agent iniciar automáticamente un procedimiento de reintegración en caso de baja prolongada, o eso debe decidirlo un humano? ¿Qué dice el comité de empresa?
No son preguntas técnicas. Son preguntas de decisión. Y mientras no se respondan, cada agent es un experimento.
La AI-Paradox: Alta inversión, bajo retorno
Lo que ocurre aquí no es un caso aislado. Es un patrón que se repite en empresas de todos los tamaños.
La mayoría de empresas ya usan IA – al menos en forma de chatbots, licencias de Copilot o primeros pilotos. Pero pocas reportan que la IA aporta un beneficio medible a los resultados.
Esta es la AI-Paradox: la tecnología funciona. Pero los beneficios no llegan.
Las explicaciones habituales se quedan cortas. “Los datos no son suficientemente buenos” – a veces es cierto, pero la calidad de datos es un problema resoluble. “El modelo no es suficientemente bueno” – improbable cuando se ve lo que pueden los modelos de lenguaje actuales. “Los empleados temen a la IA” – la gestión del cambio importa, pero no explica por qué también proyectos bien acompañados se estancan.
La causa real es otra: falta la arquitectura de decisiones.
Lo que falta: No mejor tecnología – sino reglas claras
Un agent de IA que procesa bajas toma entre cinco y diez decisiones individuales por documento: ¿Está completo el documento? ¿Qué convenio colectivo aplica? ¿Hay una baja prolongada? ¿Debe iniciarse un procedimiento de reintegración? ¿En qué sistema se contabiliza?
Para cada una de estas decisiones debe estar predefinido:
¿Decide un humano? Por ejemplo en bajas prolongadas, porque un procedimiento de reintegración requiere discrecionalidad y el comité de empresa tiene derecho de participación.
¿Decide un conjunto de reglas? Por ejemplo en la verificación del convenio colectivo — el convenio es claro, la regla se aplica de forma consistente. Aquí el agente es un ejecutor — no porque no pueda más, sino porque no hay nada que interpretar.
¿Decide la IA de forma autónoma? El agente interpreta documentos, clasifica situaciones, evalúa contexto. Esto no es if-then-else — es capacidad de juicio dentro de límites definidos. El Confidence Routing controla: alta confianza y bajo riesgo significa decisión autónoma; baja confianza o alto riesgo significa escalación a una persona.
Sin esta asignación, el agent es una caja negra. Produce resultados, pero nadie puede rastrear en qué base. Ningún auditor lo acepta. Ningún comité de empresa lo aprueba. Ningún departamento de compliance lo libera.
La ratio de inversión: Por qué la tecnología sola no basta
La experiencia muestra una regla que sorprende a muchos: por cada euro en tecnología, las empresas necesitan cuatro a cinco euros en procesos, governance y gestión del cambio.
Esto significa: quien tiene un presupuesto de IA de 500.000 EUR e invierte todo en licencias y modelos, aborda aproximadamente el 20% del problema. El 80% restante – diseño de procesos, reglas de decisión, acuerdos de empresa, formaciones, estructuras de governance – queda sin trabajar.
Esto explica la AI-Paradox. No es un problema de tecnología. Es un problema de inversión. O más precisamente: un problema de distribución de inversión.
Qué significa esto para RRHH
Los procesos de RRHH son especialmente vulnerables a la AI-Paradox. Por tres razones:
Primero: Alta complejidad regulatoria. Convenios colectivos, acuerdos de empresa, leyes específicas por país, directrices internas. Un solo proceso como el procesamiento de bajas puede tocar cinco conjuntos de reglas diferentes.
Segundo: Participación. En empresas con comité de empresa, este tiene derecho de información y consulta conforme al Art. 64 del Estatuto de los Trabajadores cuando los sistemas de IA procesan datos de empleados. Sin una lógica de decisión transparente, el comité no puede ejercer estos derechos ni verificar qué hace el agent.
Tercero: Responsabilidad. Si un agent genera una nómina errónea, la responsabilidad no es del agent. Es de la empresa. Sin un camino de decisión documentado, no queda claro dónde se originó el error.
Primero hacer visibles las decisiones, después automatizar
La solución no es menos IA. La solución es más estructura.
Antes de que un agent automatice un proceso, el proceso debe descomponerse en pasos de decisión individuales. Para cada paso se define: humano, reglas o IA. Esta asignación no es estática – puede cambiar cuando cambia un conjunto de reglas o cuando el agent gana experiencia.
El Decision Layer implementa exactamente esto. Se sitúa entre el AI Agent y el sistema destino y descompone cada proceso de negocio en pasos de decisión documentados. Cada paso tiene una asignación clara, un conjunto de reglas versionado y un Audit Trail completo.
El resultado: de un experimento de IA surge un sistema productivo. Uno que el comité de empresa puede verificar, que el auditor acepta y que funciona consistentemente en todas las sedes.
Conclusión
La AI-Paradox no es un destino inevitable. Es la consecuencia de una mala asignación: demasiada inversión en tecnología, poca en las reglas que determinan lo que la tecnología puede hacer.
Las empresas que entienden esto no invierten en el próximo modelo de lenguaje – invierten en su arquitectura de decisiones. Y exactamente ahí está la diferencia entre un piloto de IA que acaba en un cajón y un sistema que funciona en producción.