El EU AI Act aplica en todo el mundo.
El EU AI Act no es sobrerregulación europea. Simplemente pone por escrito lo que cada sistema legal ya exige: Explique su decisión.
Reality Check
Países donde el EU AI Act ya es realidad
Cada país con un sistema legal donde las empresas pueden ser responsabilizadas por decisiones basadas en IA.
Sin color: Países sin un sistema judicial funcional. Si hacen negocios allí, tienen otros problemas.
Somalia. Sudán del Sur. Yemen. Libia. Siria. – Son las únicas excepciones.
La pregunta de 3 millones de euros
Una empresa española utiliza una herramienta de IA para filtrar candidatos. 500 solicitudes entran, 20 salen. Uno de los 480 rechazados demanda. No invoca el EU AI Act. Invoca el Estatuto de los Trabajadores y la Ley 15/2022, de igualdad de trato y no discriminación – una ley que explícitamente prohíbe la discriminación algorítmica.
La pregunta del juez: “Explique cómo se tomó esta decisión.”
Silencio.
No porque la empresa actuara de mala fe. Sino porque nadie en la empresa puede explicar cómo la herramienta de IA produjo esos 480 rechazos. RRHH compró la herramienta. IT la instaló. Y la lógica de decisión está dentro de una caja negra que nadie puede abrir.
Esto no es hipotético. Está sucediendo ahora. Y no solo en España.
La accountability no es un invento europeo
La mayoría de los directivos han archivado mentalmente el EU AI Act como “regulación europea.” Es un error caro. El EU AI Act no inventó el principio de decisiones explicables. Simplemente fue el primero en ponerlo por escrito específicamente para sistemas de IA.
El principio en sí es universal.
España: La Ley 15/2022 es una de las legislaciones más avanzadas del mundo en materia de no discriminación algorítmica. El artículo 23 prohíbe explícitamente la discriminación en el empleo por decisiones automatizadas. El Estatuto de los Trabajadores protege frente a decisiones arbitrarias. Y como miembro de la UE, el EU AI Act se aplica directamente.
América Latina: México tiene la Ley Federal del Trabajo que protege contra la discriminación laboral. Argentina, la Ley de Contrato de Trabajo. Colombia, el Código Sustantivo del Trabajo. Chile está desarrollando regulación específica de IA. Brasil tiene la LGPD Art. 20 con derecho explícito a explicación de decisiones automatizadas. Los tribunales laborales latinoamericanos son cada vez más activos en cuestionar decisiones automatizadas.
Estados Unidos: Title VII del Civil Rights Act prohíbe la discriminación en decisiones de empleo – desde 1964. La EEOC puede exigir en cualquier momento que una empresa explique por qué rechazó a un candidato. En Nueva York, Local Law 144 exige auditorías de sesgo obligatorias para herramientas de IA en reclutamiento desde 2023.
De los 193 estados miembros de la ONU, hay exactamente 5 donde una empresa no puede ser legalmente responsabilizada por una decisión de IA inexplicable. No porque esos países lo permitan – sino porque no tienen un sistema judicial funcional.
El EU AI Act no es sobrerregulación europea. Es la primera respuesta honesta a una pregunta universal.
Por qué RRHH es el Ground Zero
Las decisiones erróneas de IA sobre productos son molestas. Las decisiones erróneas de IA sobre procesos son costosas. Las decisiones erróneas de IA sobre personas son existenciales – para los afectados y para la empresa.
RRHH es el área donde las decisiones de IA crean la mayor superficie de ataque. Tres escenarios que ya están ocurriendo:
Un screening de CV basado en IA filtra sistemáticamente candidatos con huecos en el currículum. Afectados: padres, personas con enfermedades crónicas, personas que cambian de carrera. En la legislación española, esto constituye discriminación indirecta bajo la Ley 15/2022.
Un análisis de sentimiento en entrevistas por vídeo malinterpreta diferencias culturales en expresión facial como señales negativas. Afectados: candidatos de diferentes contextos culturales. Esto es potencialmente discriminación étnica.
Una herramienta de predicción de rendimiento entrenada con datos históricos de ascensos reproduce los patrones del pasado. Si en el pasado los hombres fueron ascendidos más frecuentemente, la herramienta replica ese patrón. Eso es discriminación de género sistemática – automatizada y escalada.
Cada uno de estos escenarios es ya accionable en la mayoría de los países. No a partir de agosto de 2026. Ahora.
Y el problema real de la discriminación por IA comparada con la discriminación humana: un directivo sesgado toma quizás 50 decisiones cuestionables al año. Un algoritmo sesgado toma 50.000. Simultáneamente. Consistentemente. De forma demostrable.
Las dos capas que toda empresa necesita
La solución no es compleja – pero requiere pensamiento arquitectónico. Toda empresa que use IA para decisiones sobre personas necesita dos capas.
El Decision Layer – la evidencia. El Decision Layer descompone cada proceso en pasos de decisión individuales y define para cada paso: humano, conjunto de reglas o IA. Cada decisión asistida por IA responde: ¿Qué datos entraron? ¿Qué modelo decidió, en qué versión? ¿Cuál fue el resultado y con qué nivel de confianza? ¿Un humano revisó el resultado antes de que surtiera efecto? ¿Es la decisión reproducible?
Esto no es un lujo técnico. Es el equivalente digital de la contabilidad. Y así como ninguna empresa puede operar sin contabilidad, pronto ninguna empresa podrá operar sin Decision Layer.
El Governance Layer – las reglas del juego. Antes de que se tome la primera decisión de IA: ¿Qué aplicaciones de IA existen siquiera en la empresa? La mayoría de las empresas no lo sabe. ¿Qué tan riesgosa es cada aplicación – no por categorías regulatorias, sino por impacto real en personas? ¿Quién es responsable? Spoiler: “IT” no es una respuesta. ¿Cuándo debe intervenir un humano? ¿Y cómo se audita todo esto?
En España, los comités de empresa y los representantes sindicales tienen un papel relevante en la implantación de sistemas de IA que afectan decisiones laborales. El Real Decreto-ley 9/2021 ya establece derechos de información sobre el uso de algoritmos en el ámbito laboral.
El elefante en la habitación: Shadow AI
Y ahora el punto más incómodo. La mayoría de las empresas debaten sobre governance para las herramientas de IA que han desplegado oficialmente. Mientras tanto, sus empleados ya están usando ChatGPT, Claude, Copilot y otras herramientas para preparar decisiones – sin que nadie lo sepa.
Los reclutadores usan ChatGPT para resumir candidaturas. Los jefes de equipo dejan que Copilot redacte recomendaciones de ascenso. L&D genera evaluaciones de desempeño con IA.
Todo esto está pasando. Ahora. Sin Decision Layer. Sin Governance Layer. Sin ninguna trazabilidad.
Y cuando alguien demande, la respuesta no será “la IA decidió” – será peor: “No sabíamos que la IA estaba decidiendo.”
La verdadera pregunta
La pregunta no es: “¿Cumplimos con el EU AI Act?”
La pregunta es: ¿Podemos explicar mañana – en cada país donde operamos – por qué decidimos hoy lo que decidimos?
Quien pueda responder que sí, es automáticamente compliant. Con el EU AI Act. Con el RGPD. Con el Estatuto de los Trabajadores. Con la Ley 15/2022. Con todo lo que venga.
Quien no pueda, no tiene un problema regulatorio. Tiene un problema de governance.