El auge de la Inteligencia Artificial (IA) ha transformado la manera en que las empresas operan y toman decisiones. Desde mejorar la experiencia del usuario hasta agilizar procesos internos, la IA se ha convertido en una herramienta esencial para muchas organizaciones. Sin embargo, este avance también plantea importantes desafíos éticos y de seguridad. Para hacer frente a estos riesgos, la Unión Europea ha desarrollado el Reglamento Europeo de Inteligencia Artificial (AI Act), una normativa pionera a nivel global.
Este reglamento, que comenzará a aplicarse en fases desde 2025 hasta 2027, busca garantizar que la IA se utilice de forma ética, transparente y centrada en la protección de los derechos fundamentales de las personas. El uso irresponsable de esta tecnología, especialmente en sectores delicados como la contratación de personal, puede tener graves consecuencias para las empresas, con sanciones económicas que pueden llegar hasta los 35 millones de euros.
El Reglamento Europeo de IA se ha creado con una clara misión: proteger a las personas y evitar los riesgos asociados al uso descontrolado de la inteligencia artificial. La normativa establece un marco de clasificación de riesgos para definir qué usos son aceptables, cuáles deben ser regulados y cuáles están prohibidos por completo.
Entre los principales objetivos del reglamento destacan:
¿Cuál es es el alcance del reglamento de inteligencia artificial?
El Reglamento de IA no solo afecta a las empresas tecnológicas que desarrollan soluciones de inteligencia artificial, sino también a cualquier organización que las utilice en su actividad diaria.
Cualquier empresa que opere en la Unión Europea, incluso si sus soluciones de IA han sido desarrolladas fuera de Europa, debe cumplir con esta normativa. Esto incluye compañías de sectores tan diversos como Recursos Humanos, banca, seguridad, salud, retail y más.
El reglamento se centra en controlar las aplicaciones de IA que puedan poner en riesgo la seguridad, la privacidad y los derechos fundamentales. Entre las prácticas más vigiladas destacan:
El reglamento entrará en vigor en varias fases:
El Reglamento establece una serie de prácticas prohibidas, consideradas de "riesgo inaceptable" debido a su potencial para causar daño. Estas prohibiciones afectan directamente a las empresas, especialmente en el ámbito de Recursos Humanos. En este otro artículo analizamos algunos usos prohibidos de la IA en Recursos Humanos.
Queda prohibido el uso de IA para manipular el comportamiento humano mediante estímulos subliminales que las personas no pueden detectar conscientemente. Esta práctica, aunque suene a ciencia ficción, ya se utiliza en algunos sectores para influir en las decisiones de compra o votación, y su aplicación en el ámbito laboral está totalmente vetada.
El uso de IA para clasificar a las personas según rasgos faciales, expresión corporal o cualquier dato biométrico está prohibido en procesos de selección, ya que puede generar discriminación. También se prohíbe el reconocimiento facial en tiempo real en espacios públicos, salvo excepciones muy específicas.
La IA no podrá utilizarse para analizar las emociones de los candidatos durante una entrevista o proceso de selección. Esta práctica es considerada invasiva y poco fiable, además de abrir la puerta a decisiones sesgadas.
¿Cuáles son los sectores más afectados?
Aunque el Reglamento de IA afecta a muchos sectores, algunos están en el punto de mira debido al alto riesgo que supone el uso de esta tecnología.
¿Cuáles son las sanciones por incumplir el reglamento Europeo de Inteligencia Artificial?
El incumplimiento del Reglamento de IA puede acarrear multas de hasta 35 millones de euros o el 6% del volumen de negocio global de la empresa, lo que supone un gran riesgo económico y reputacional. La Agencia Española de Supervisión de la IA (AESIA) será la encargada de fiscalizar y sancionar a las empresas que no se ajusten a la normativa.
¿Cuándo se implementará la ley de IA?
La aplicación del Reglamento será progresiva para permitir que las empresas tengan tiempo de adaptarse: