El Reglamento Europeo de Inteligencia Artificial está en las fases finales de desarrollo. Y una vez entre en vigor, cambiará significativamente la forma en cómo se utiliza la inteligencia artificial en recursos humanos.
Esta nueva normativa, conocida como la Ley de Inteligencia Artificial, se centra en establecer un marco legal para el desarrollo, la implementación y el uso de sistemas de IA en toda Europa. Aunque aún no está en vigor, se espera que, al igual que ocurrió con el Reglamento General de Protección de Datos (GDPR) aprobado en 2016, se otorgue un plazo de dos años para que las empresas se adapten a los nuevos requisitos una vez se apruebe.
Si quieres saber cómo afecta el reglamento de Protección de Datos a tu reclutamiento, hemos preparado una guía completa para tu equipo.
En este artículo, exploraremos cómo esta normativa afectará al reclutamiento en España, los escenarios donde no se aplica, las prácticas prohibidas y aquellas consideradas de alto riesgo.
El Reglamento Europeo de Inteligencia Artificial es una normativa pionera desarrollada por la Unión Europea con el objetivo de establecer un marco regulatorio para el uso y desarrollo de sistemas de inteligencia artificial (IA) en Europa.
Este reglamento busca garantizar que la IA se utilice de manera ética, segura y respetuosa con los derechos fundamentales de las personas. La normativa establece una serie de requisitos y restricciones para los sistemas de IA, clasificándolos en diferentes categorías según el nivel de riesgo que presentan.
Una de las características más destacadas del reglamento es que proporciona una definición clara y precisa de lo que se considera un Sistema de Inteligencia Artificial. Según el reglamento, un Sistema de Inteligencia Artificial es:
"Un sistema basado en una máquina diseñado para funcionar con distintos niveles de autonomía, que infiere de la información de entrada que recibe de manera la manera de generar información de salida, como predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos o virtuales."
El reglamento también introduce medidas específicas para mitigar los riesgos asociados con el uso de IA, como requisitos de transparencia, supervisión humana y robustez técnica. Al igual que el Reglamento General de Protección de Datos (GDPR), se espera que la nueva normativa de IA otorgue un período de transición de dos años para que las empresas puedan adaptarse a los nuevos requisitos. Esta legislación es un paso crucial hacia la creación de un entorno digital más seguro y confiable en Europa.
El Reglamento Europeo de Inteligencia Artificial establece varias prácticas y usos de los sistemas de IA que están completamente prohibidos debido a los riesgos significativos que representan para los derechos y libertades fundamentales de las personas. Algunas de estas prohibiciones son:
Sistemas de puntuación social
Está prohibido el uso de IA para la evaluación y clasificación generalizada de personas basada en su comportamiento social o características personales, similar al sistema de crédito social de China. Esta práctica se considera una violación de la dignidad humana y la privacidad.El Reglamento Europeo de Inteligencia Artificial también identifica ciertas prácticas y usos de IA que, aunque no están prohibidos, se consideran de alto riesgo. Estos, están sujetos a estrictos requisitos de cumplimiento, muchos de ellos relacionados con prácticas que afectan al departamento de recursos humanos.
Además, el reglamento establece cuatro niveles de riesgo de la Inteligencia Artificial y su uso en el reclutamiento es considerado como "Alto riesgo". Por eso, es más importante que nunca utilizar un software de selección de persona o ATS que nos ayude a cumplir con este reglamento.
Aquí las prácticas más señaladas por este nuevo reglamento:
Los sistemas de IA utilizados en el reclutamiento y la selección de candidatos para puestos de trabajo deben cumplir con altos estándares de transparencia, explicabilidad y equidad. Esto incluye la obligación de informar a los candidatos sobre el uso de IA en el proceso y garantizar que no se discrimine por razones de raza, género u otros factores protegidos.
2. Evaluación del Rendimiento y Productividad
Las herramientas de IA que evalúan el rendimiento y la productividad de los empleados también se consideran de alto riesgo. Las empresas deben asegurarse de que estos sistemas sean justos y no invadan la privacidad de los trabajadores.
Los sistemas de IA que toman decisiones automatizadas sobre la concesión de beneficios o derechos laborales, como promociones o asignaciones de tareas, están sujetos a una estricta supervisión para garantizar que sean justos y no discriminatorios.
4. Análisis de Experiencia del Empleado
Las tecnologías que utilizan IA para analizar la satisfacción y el bienestar de los empleados, como encuestas de clima laboral o herramientas de monitoreo de bienestar, deben garantizar que los datos se manejen de manera ética y con el consentimiento informado de los empleados.
5. Planifiación de la Rotación y Promoción de Empleados
Los sistemas de IA que ayudan a planificar la rotación y promoción de empleados deben ser transparentes y justos, garantizando que todas las decisiones sean basadas en méritos y competencias, sin sesgos implícitos o explícitos.
En conclusión, la nueva Normativa Europea de Inteligencia Artificial promete transformar la manera en que las empresas en España y el resto de Europa utilizan la IA en sus procesos de reclutamiento. Al entender las áreas donde no se aplica, las prácticas prohibidas y las prácticas de alto riesgo, las organizaciones pueden prepararse mejor para cumplir con las nuevas regulaciones y aprovechar al máximo las oportunidades que ofrece la IA de manera ética y responsable.