La adopción generalizada de la IA en todo el mundo está transformando las industrias e impulsando la eficiencia, la productividad y el crecimiento de las empresas.
De hecho, el 49% de los líderes tecnológicos de la encuesta Pulse de octubre de 2024 de PwC afirmaron que la IA estaba "totalmente integrada" en la estrategia empresarial principal de sus empresas, y un tercio afirmó que la IA estaba totalmente integrada en sus productos y servicios.
Pero, a medida que crece el uso de la inteligencia artificial, también aumenta la preocupación por los posibles riesgos.
La Unión Europea (UE) abordó esta cuestión de frente en 2024, introduciendo la Ley de Inteligencia Artificial de la Unión Europea, también conocida como Ley de IA de la UE o Ley de IA.
Tanto si su empresa tiene su sede dentro como fuera de la UE, es fundamental que entienda cómo afecta la Ley de IA a su negocio y que tome medidas proactivas para cumplir la ley.
Principales conclusiones:
- La Ley de Inteligencia Artificial de la UE es el primer marco jurídico completo del mundo que regula el desarrollo y el uso de la inteligencia artificial en la UE.
- Todas las empresas deben cumplir la normativa si su tecnología de IA afecta a ciudadanos de la UE, de forma similar a como funciona el Reglamento General de Protección de Datos (RGPD ).
- Los equipos de RRHH se ven directamente afectados por la Ley de IA de la UE y deben tomar medidas proactivas para garantizar su cumplimiento, ya que muchos sistemas y prácticas esenciales de RRHH están clasificados como de alto riesgo según el reglamento.
¿Qué es la Ley de Inteligencia Artificial de la UE y por qué se creó?
La Comisión Europea y el Parlamento Europeo adoptaron la Ley de Inteligencia Artificial para promover el desarrollo y uso responsable y transparente de la IA mediante una legislación definida.
Esboza requisitos claros de gobernanza, gestión de riesgos y supervisión para garantizar un uso seguro y fiable de la IA, estimular la inversión en IA, promover la innovación en IA y evitar casos de uso perjudiciales (en particular, los que afectan a la seguridad, la salud, la privacidad y los derechos fundamentales de los ciudadanos).
Define requisitos y obligaciones de transparencia para:
- Proporcionar una definición amplia de la IA, cubierta por la Ley
- Establecer un marco jurídico global
- Garantizar prácticas fiables de IA en la Unión Europea
- Proteger los derechos fundamentales mediante la regulación de la IA
- Garantizar la supervisión humana y la protección de los datos personales, al igual que el RGPD .
¿Cuándo se convertirá en ley la Ley de Inteligencia Artificial de la UE?
La Ley de Inteligencia Artificial de la UE entró en vigor en agosto de 2024, con fases posteriores hasta 2027. Este enfoque gradual da tiempo a las empresas y a las partes afectadas para comprender y cumplir la ley.
Por ejemplo:
- Las prohibiciones sobre aplicaciones de riesgo inaceptable entraron en vigor en febrero de 2025.
- Las normas para cualquier nuevo modelo de IA de propósito general o de la Asociación Global de Inteligencia Artificial (GPAI ) entrarán en vigor en agosto de 2025.
- Las normas para los sistemas de IA de alto riesgo entrarán en vigor en agosto de 2026.
Este planteamiento refleja la postura de la UE de que todos los sistemas y prácticas de IA son desiguales, y algunos conllevan mayores riesgos que otros.
Clasificación de los sistemas de IA en función del riesgo
La Ley de IA de la UE adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en cuatro categorías:
Riesgo inaceptable
Se prohíben las aplicaciones de IA que amenacen la seguridad, el sustento o los derechos fundamentales de las personas.
Por ejemplo, los sistemas de puntuación social, la vigilancia biométrica en tiempo real en espacios públicos y el reconocimiento de emociones en el lugar de trabajo están incluidos en la categoría de riesgo inaceptable de la Ley de IA de la UE.
Alto riesgo
Aunque la IA puede beneficiar a la sociedad, muchos casos de uso podrían perjudicar la salud, la seguridad y los derechos fundamentales si no se controlan.
Esto es especialmente cierto en sectores críticos como la sanidad, la aplicación de la ley y el empleo.
Por lo tanto, la Ley de Inteligencia Artificial de la UE establece estrictas obligaciones de cumplimiento para los casos de uso de alto riesgo, incluida la transparencia, las evaluaciones de seguridad por terceros, los conjuntos de datos de calidad, la documentación detallada, la supervisión humana y las pruebas rigurosas, tanto antes como después del lanzamiento de una solución, producto o componente de inteligencia artificial.
Algunos ejemplos de casos de uso de IA de alto riesgo son:
- Componentes de seguridad basados en IA (por ejemplo, aplicación de IA en cirugía asistida por robot).
- IA utilizada en el empleo, la gestión de trabajadores y el acceso al autoempleo (por ejemplo, IA que revisa y encamina los currículos de los solicitantes).
- IA utilizada para examinar el acceso a servicios públicos o privados esenciales (por ejemplo, la IA que determina si se aprueba a un solicitante para un préstamo bancario).
Riesgo limitado
La categoría de riesgo limitado especifica las obligaciones de transparencia para garantizar que las personas sepan cuándo están interactuando con la IA.
Por ejemplo, cuando los ciudadanos interactúan con un chatbot, la ley exige revelar que el chatbot es una máquina, no un humano, para que la gente pueda decidir si procede o no.
Lo mismo se aplica a las imágenes deepfake generadas por IA; la ley exige un etiquetado claro y visible para no engañar al público.
Los sistemas y prácticas de riesgo limitado se enfrentan a menos restricciones normativas al margen de las obligaciones de divulgación.
Riesgo mínimo o ningún riesgo
La ley reconoce que muchos casos de uso de la IA suponen poca o ninguna amenaza para los usuarios, como el uso de la IA en videojuegos, filtros de spam y recomendaciones de contenidos.
La mayoría de los casos de uso en la UE entran actualmente en esta categoría y en gran medida no están regulados....
¿Qué necesitan las empresas para cumplir la Ley de IA de la UE?
La Ley de IA de la UE se aplica a todas las empresas que operan en el mercado de la UE y a las organizaciones de fuera de la UE si su IA, o los resultados de su IA, se utilizan en la UE.
La Ley divide a las partes afectadas en tres categorías:
- Los proveedores son personas o empresas que diseñan, desarrollan o encargan la creación de un sistema de IA o un modelo GPAI y luego lo introducen en el mercado europeo con su propio nombre o marca comercial. Una empresa de software que lanza una herramienta de IA generativa es un proveedor.
- Los implantadores son organizaciones que utilizan la IA para sus objetivos, soluciones o productos. Una empresa que utiliza un widget de recomendación de productos de IA en su sitio web es un implantador.
- Los importadores/distribuidores son personas u organizaciones de la UE que revenden o introducen en el mercado comunitario sistemas de IA procedentes de una persona o empresa establecida fuera de la UE.
Estas funciones no se excluyen mutuamente: se puede ser proveedor (desarrollando la IA) e implantador (utilizando la IA).
Dado que este marco jurídico es el primero de este tipo, se espera que otros países sigan su ejemplo con marcos normativos similares.
Principales requisitos de conformidad
La Ley de IA de la UE establece normas para el desarrollo de sistemas de IA de alto riesgo y reglas para los modelos de IA de uso general.
Prohíbe totalmente los sistemas y prácticas de IA en la categoría de nivel de riesgo inaceptable, como la IA utilizada para engañar y explotar a poblaciones de edad avanzada.
Las organizaciones que desarrollan o utilizan sistemas de IA de alto riesgo se enfrentan a las medidas de cumplimiento y transparencia más estrictas, entre las que se incluyen:
- Realizar evaluaciones de riesgos y aplicar un sistema continuo de gestión de riesgos para revelarlos y mitigarlos.
- Emplear normas rigurosas de gobernanza de datos, garantizando que los datos son examinados, probados y de alta calidad, y mitigando los sesgos conocidos.
- Cumplir las obligaciones de divulgación, garantizar que las personas sepan cuándo están interactuando con IA y que el contenido generado por IA esté claramente etiquetado en formatos legibles por máquina.
- Garantizar la supervisión humana en la toma de decisiones con IA de alto riesgo, permitiendo la intervención humana, estableciendo protocolos claros de escalada, formando al personal para interpretar los resultados de la IA y manteniendo la rendición de cuentas.
- Mantener al día la documentación técnica detallada en la que se especifique el diseño del sistema, sus capacidades y los esfuerzos de cumplimiento de la normativa.
- Mantener los planes de seguimiento posteriores a la comercialización para garantizar el cumplimiento continuado a lo largo del ciclo de vida del sistema.
Los modelos GPAI tienen sus propias obligaciones, como crear políticas que se ajusten a la legislación de la UE sobre derechos de autor, poner a disposición del público resúmenes detallados de los conjuntos de datos de formación y garantizar la aplicación de medidas adecuadas de ciberseguridad.
La Oficina Europea de AI y las autoridades de los Estados miembros son responsables de hacer cumplir la Ley de AI. El incumplimiento puede dar lugar a cuantiosas multas, con sanciones de hasta 35 millones de euros o el 7% de la facturación anual mundial.
Lo que los responsables de RRHH deben saber sobre la Ley de IA de la UE
La Ley de IA de la UE afecta directamente a los equipos de RRHH, especialmente si utilizan herramientas basadas en IA para la contratación, la gestión del rendimiento, el análisis del rendimiento u otras decisiones relacionadas con el empleo. Dado que muchas aplicaciones de RRHH entran en la categoría de alto riesgo, las organizaciones deben tomar medidas proactivas para garantizar el cumplimiento.
Regulación de la IA en la contratación y el reclutamiento
Las herramientas basadas en IA utilizadas para el cribado de currículos, la selección de candidatos y el análisis de entrevistas entran en la categoría de "alto riesgo". Esto significa que los equipos de RRHH deben:
- Garantizar que las herramientas de contratación de IA sean auditables, imparciales y explicables.
- Evite la discriminación revisando periódicamente los algoritmos para detectar posibles sesgos.
- Mantenga la transparencia informando a los candidatos cuando se utilice IA a lo largo del proceso de contratación.
Por ejemplo, si utiliza IA generativa para redactar la descripción de su puesto de trabajo, debe indicar claramente que la IA la ha generado.
También puede crear una página web que revele las herramientas de IA utilizadas a lo largo del proceso de contratación y cómo afectan a la experiencia del candidato o del trabajador. Esta transparencia no solo favorece el cumplimiento, sino que también genera confianza entre los solicitantes de empleo.
La IA en la supervisión y gestión del rendimiento de los empleados
Las herramientas impulsadas por IA que realizan un seguimiento de la productividad de los empleados, analizan correos electrónicos, evalúan el rendimiento o toman decisiones de promoción también pueden clasificarse como de alto riesgo.
En consecuencia, los responsables de RRHH deberían
- Utilice las herramientas de supervisión de IA de forma responsable para evitar la vigilancia excesiva y respetar la privacidad de los empleados.
- Comunicar cómo se recogen y utilizan los datos de los empleados.
- Incorpore la supervisión humana a cualquier evaluación del rendimiento basada en IA.
- Permitir a los empleados cuestionar los conocimientos generados por la IA antes de tomar cualquier medida de RR.HH.
Por ejemplo, si utiliza la IA para controlar el tono de voz en las llamadas de atención al cliente, debe combinar el análisis de la IA con la revisión y los comentarios humanos directos.
Privacidad de datos y obligaciones de cumplimiento
La Ley de IA refuerza el Reglamento General de Protección de Datos (RGPD) de la UE, lo que significa que los equipos de RRHH deben:
- Proteja los datos de empleados y candidatos y limite el acceso de la IA a la información confidencial.
- Garantizar el cumplimiento de los requisitos de tratamiento y almacenamiento de datos.
- Trabajar con los equipos jurídicos y de TI para evaluar el cumplimiento de la ley por parte de los proveedores de IA y solicitar actualizaciones continuas.
Por ejemplo, si utiliza plataformas de nómina impulsadas por IA, su herramienta debe cumplir con la localización de datos, el cifrado y los controles de acceso.
Lo que los responsables de RRHH deben hacer ahora
Con la entrada en vigor de la Ley de Inteligencia Artificial de la UE, los responsables de RRHH deben asegurarse de cumplirla y planificar las obligaciones futuras.
Los responsables de RRHH deberían:
- Auditar e inventariar las herramientas de IA existentes: Documente dónde se utiliza la IA en los procesos de RRHH y en toda su organización, clasificando los niveles de riesgo.
- Colaborar con los proveedores: Habla con los proveedores para comprender sus esfuerzos de cumplimiento y garantizar que el software de RRHH impulsado por IA es conforme.
- Actualizar los contratos de uso de IA: Exigir a los proveedores que proporcionen documentación de cumplimiento, informes de transparencia y mecanismos de supervisión humana incorporados.
- Aplique medidas de transparencia: Informe a los empleados y candidatos sobre el uso de la IA (especialmente en la contratación, los ascensos y el seguimiento del rendimiento) y comunique el derecho a impugnar las decisiones automatizadas.
- Formar a los equipos: Educa a los profesionales de RRHH sobre los riesgos de la IA y las nuevas obligaciones legales e invierte en programas de alfabetización en IA para todos los empleados que supervisen o utilicen sistemas de IA de alto riesgo.
- Hable con el departamento jurídico: Revise las políticas con sus equipos jurídicos para garantizar el cumplimiento y manténgase al día de la normativa sobre IA a medida que evoluciona la Ley de IA de la UE.
- Encuentre un socio: Un consultor de gobernanza de IA o un especialista en legislación laboral pueden ayudar a los equipos de RRHH a navegar por las normativas de cumplimiento a medida que se despliegan.
Garantice el cumplimiento de la normativa laboral con RemoFirst
Navegar por la Ley de IA de la UE es complejo y puede requerir una inversión de tiempo significativa de su equipo de RRHH para estar en conformidad. Al asociarse con RemoFirst como empleador de registro, puede descargar otras tareas de recursos humanos, lo que permite a su equipo centrarse en los requisitos reglamentarios de IA de la UE con mayor facilidad.
Como EOR, nos encargamos de las tareas administrativas de RR. HH. de sus empleados internacionales, como la incorporación, la nómina global, la administración de las prestaciones de los empleados (como el seguro médico) y la garantía del cumplimiento de la legislación laboral local, incluido el GDPR, cuando proceda.
Programe una demostración para obtener más información sobre cómo RemoFirst puede ayudar a su empresa a contratar trabajadores en más de 185 países.