Ir al contenido
Governance & Compliance

El EU AI Act aplica en todo el mundo.

El EU AI Act no es sobrerregulación europea. Simplemente pone por escrito lo que cada sistema legal ya exige: Explique su decisión.

Bert Gogolin
Bert Gogolin
CEO y fundador 7 min de lectura

Reality Check

Países donde el EU AI Act ya es realidad

Cada país con un sistema legal donde las empresas pueden ser responsabilizadas por decisiones basadas en IA.

Legislación explícita de IA
Derecho laboral/antidiscriminación
Posibilidad de demanda civil
Sin sistema legal funcional

Sin color: Países sin un sistema judicial funcional. Si hacen negocios allí, tienen otros problemas.

Somalia. Sudán del Sur. Yemen. Libia. Siria. – Son las únicas excepciones.

La pregunta de 3 millones de euros

Una empresa española utiliza una herramienta de IA para filtrar candidatos. 500 solicitudes entran, 20 salen. Uno de los 480 rechazados demanda. No invoca el EU AI Act. Invoca el Estatuto de los Trabajadores y la Ley 15/2022, de igualdad de trato y no discriminación – una ley que explícitamente prohíbe la discriminación algorítmica.

La pregunta del juez: “Explique cómo se tomó esta decisión.”

Silencio.

No porque la empresa actuara de mala fe. Sino porque nadie en la empresa puede explicar cómo la herramienta de IA produjo esos 480 rechazos. RRHH compró la herramienta. IT la instaló. Y la lógica de decisión está dentro de una caja negra que nadie puede abrir.

Esto no es hipotético. Está sucediendo ahora. Y no solo en España.

La accountability no es un invento europeo

La mayoría de los directivos han archivado mentalmente el EU AI Act como “regulación europea.” Es un error caro. El EU AI Act no inventó el principio de decisiones explicables. Simplemente fue el primero en ponerlo por escrito específicamente para sistemas de IA.

El principio en sí es universal.

España: La Ley 15/2022 es una de las legislaciones más avanzadas del mundo en materia de no discriminación algorítmica. El artículo 23 prohíbe explícitamente la discriminación en el empleo por decisiones automatizadas. El Estatuto de los Trabajadores protege frente a decisiones arbitrarias. Y como miembro de la UE, el EU AI Act se aplica directamente.

América Latina: México tiene la Ley Federal del Trabajo que protege contra la discriminación laboral. Argentina, la Ley de Contrato de Trabajo. Colombia, el Código Sustantivo del Trabajo. Chile está desarrollando regulación específica de IA. Brasil tiene la LGPD Art. 20 con derecho explícito a explicación de decisiones automatizadas. Los tribunales laborales latinoamericanos son cada vez más activos en cuestionar decisiones automatizadas.

Estados Unidos: Title VII del Civil Rights Act prohíbe la discriminación en decisiones de empleo – desde 1964. La EEOC puede exigir en cualquier momento que una empresa explique por qué rechazó a un candidato. En Nueva York, Local Law 144 exige auditorías de sesgo obligatorias para herramientas de IA en reclutamiento desde 2023.

De los 193 estados miembros de la ONU, hay exactamente 5 donde una empresa no puede ser legalmente responsabilizada por una decisión de IA inexplicable. No porque esos países lo permitan – sino porque no tienen un sistema judicial funcional.

El EU AI Act no es sobrerregulación europea. Es la primera respuesta honesta a una pregunta universal.

Por qué RRHH es el Ground Zero

Pirámide de riesgo: las decisiones de RRHH sobre personas conllevan el mayor riesgo

Las decisiones erróneas de IA sobre productos son molestas. Las decisiones erróneas de IA sobre procesos son costosas. Las decisiones erróneas de IA sobre personas son existenciales – para los afectados y para la empresa.

RRHH es el área donde las decisiones de IA crean la mayor superficie de ataque. Tres escenarios que ya están ocurriendo:

Un screening de CV basado en IA filtra sistemáticamente candidatos con huecos en el currículum. Afectados: padres, personas con enfermedades crónicas, personas que cambian de carrera. En la legislación española, esto constituye discriminación indirecta bajo la Ley 15/2022.

Un análisis de sentimiento en entrevistas por vídeo malinterpreta diferencias culturales en expresión facial como señales negativas. Afectados: candidatos de diferentes contextos culturales. Esto es potencialmente discriminación étnica.

Una herramienta de predicción de rendimiento entrenada con datos históricos de ascensos reproduce los patrones del pasado. Si en el pasado los hombres fueron ascendidos más frecuentemente, la herramienta replica ese patrón. Eso es discriminación de género sistemática – automatizada y escalada.

Cada uno de estos escenarios es ya accionable en la mayoría de los países. No a partir de agosto de 2026. Ahora.

Y el problema real de la discriminación por IA comparada con la discriminación humana: un directivo sesgado toma quizás 50 decisiones cuestionables al año. Un algoritmo sesgado toma 50.000. Simultáneamente. Consistentemente. De forma demostrable.

Las dos capas que toda empresa necesita

Governance Layer y Decision Layer: arquitectura de dos capas

La solución no es compleja – pero requiere pensamiento arquitectónico. Toda empresa que use IA para decisiones sobre personas necesita dos capas.

El Decision Layer – la evidencia. El Decision Layer descompone cada proceso en pasos de decisión individuales y define para cada paso: humano, conjunto de reglas o IA. Cada decisión asistida por IA responde: ¿Qué datos entraron? ¿Qué modelo decidió, en qué versión? ¿Cuál fue el resultado y con qué nivel de confianza? ¿Un humano revisó el resultado antes de que surtiera efecto? ¿Es la decisión reproducible?

Esto no es un lujo técnico. Es el equivalente digital de la contabilidad. Y así como ninguna empresa puede operar sin contabilidad, pronto ninguna empresa podrá operar sin Decision Layer.

El Governance Layer – las reglas del juego. Antes de que se tome la primera decisión de IA: ¿Qué aplicaciones de IA existen siquiera en la empresa? La mayoría de las empresas no lo sabe. ¿Qué tan riesgosa es cada aplicación – no por categorías regulatorias, sino por impacto real en personas? ¿Quién es responsable? Spoiler: “IT” no es una respuesta. ¿Cuándo debe intervenir un humano? ¿Y cómo se audita todo esto?

En España, los comités de empresa y los representantes sindicales tienen un papel relevante en la implantación de sistemas de IA que afectan decisiones laborales. El Real Decreto-ley 9/2021 ya establece derechos de información sobre el uso de algoritmos en el ámbito laboral.

El elefante en la habitación: Shadow AI

Shadow AI iceberg: sobre la línea de agua herramientas oficiales, bajo la línea uso sin control ni auditoría

Y ahora el punto más incómodo. La mayoría de las empresas debaten sobre governance para las herramientas de IA que han desplegado oficialmente. Mientras tanto, sus empleados ya están usando ChatGPT, Claude, Copilot y otras herramientas para preparar decisiones – sin que nadie lo sepa.

Los reclutadores usan ChatGPT para resumir candidaturas. Los jefes de equipo dejan que Copilot redacte recomendaciones de ascenso. L&D genera evaluaciones de desempeño con IA.

Todo esto está pasando. Ahora. Sin Decision Layer. Sin Governance Layer. Sin ninguna trazabilidad.

Y cuando alguien demande, la respuesta no será “la IA decidió” – será peor: “No sabíamos que la IA estaba decidiendo.”

La verdadera pregunta

La pregunta no es: “¿Cumplimos con el EU AI Act?”

La pregunta es: ¿Podemos explicar mañana – en cada país donde operamos – por qué decidimos hoy lo que decidimos?

Quien pueda responder que sí, es automáticamente compliant. Con el EU AI Act. Con el RGPD. Con el Estatuto de los Trabajadores. Con la Ley 15/2022. Con todo lo que venga.

Quien no pueda, no tiene un problema regulatorio. Tiene un problema de governance.

EU AI Act Governance RRHH Decision Layer Compliance Shadow AI
Compartir este artículo

Preguntas frecuentes

¿Aplica el EU AI Act fuera de la UE?

Directamente no. Pero el principio detrás – que las empresas deben poder explicar sus decisiones – aplica en prácticamente todos los países con un sistema legal funcional. Desde el Estatuto de los Trabajadores en España hasta la LGPD Art. 20 en Brasil.

¿Qué es un Decision Layer?

El Decision Layer descompone cada proceso en pasos de decisión individuales y define para cada paso: humano, conjunto de reglas o IA. Cada decisión queda documentada – qué datos entraron, qué modelo decidió, con qué nivel de confianza.

¿Por qué RRHH está particularmente afectado?

Porque las decisiones de RRHH se toman sobre personas. La exposición legal ante demandas por discriminación es la más alta, la sensibilidad de los datos es máxima y las consecuencias para los afectados son existenciales.

¿Qué es Shadow AI en el contexto de RRHH?

Shadow AI se refiere al uso no controlado de herramientas de IA como ChatGPT o Copilot por parte de empleados sin conocimiento de la empresa. En RRHH: reclutadores que resumen candidaturas con ChatGPT o jefes de equipo que redactan evaluaciones de desempeño con Copilot – sin rastro de auditoría y sin governance.

¿Qué proceso debería manejar su primer agente?

Hablemos sobre un caso de uso concreto en su organización.

Agendar una llamada