Blog de Inbound Recruiting: Employer Branding, Atracción y Gestión Talento

La nueva ley de IA en reclutamiento: lo que no debes ignorar a partir de ahora

Escrito por Natxo López | 15/9/2025

El Reglamento Europeo de Inteligencia Artificial entró en vigor el 2 de agosto de 2024. Pero lo realmente importante para quienes trabajan en Recursos Humanos es que, desde el de agosto de 2025, las obligaciones para las actividades de alto riesgo ya son de aplicación directa. Y entre esas actividades de alto riesgo está, de manera explícita, el reclutamiento y la selección de personal.

Esto quiere decir que, desde hace apenas unas semanas, cualquier empresa que utilice un software de reclutamiento con funcionalidades de IA —aunque sean básicas— debe cumplir con requisitos específicos. No hablamos de futuro, hablamos de presente.

Ignorar esta normativa puede exponer a tu organización a sanciones económicas, inspecciones legales, demandas por discriminación y, lo que es aún más grave, a una pérdida de confianza entre candidatos y empleados.

 
 
 

Want More?

Click below to access exclusive content.

 
 
 
 

Want More?

Click below to access exclusive content.

 
 
 
 

Want More?

Click below to access exclusive content.

 
 
 
 

Want More?

Click below to access exclusive content.

 
 
 
 

Want More?

Click below to access exclusive content.

 

La pregunta clave es: ¿sabes si el ATS que utilizas ya incorpora Inteligencia Artificial y cómo te afecta esta nueva regulación?

¿Por qué la IA en reclutamiento es considerada de alto riesgo?

El Reglamento Europeo establece que cualquier uso de IA en la atracción y selección de talento puede tener un impacto directo en los derechos fundamentales de las personas. Pensemos en un algoritmo que segmenta anuncios de empleo y los muestra solo a determinados perfiles, dejando fuera a candidatos que jamás se enterarán de la vacante. O en un software que filtra automáticamente CVs y descarta candidaturas que a simple vista podrían encajar en el puesto.

También están las entrevistas digitales y pruebas psicométricas automatizadas, donde la IA puntúa y ordena candidatos, o los algoritmos de ranking que priorizan perfiles en base a variables que no siempre están claras. Estas prácticas, ya comunes en muchos ATS del mercado, condicionan quién accede a una oportunidad laboral y quién se queda fuera.

El problema no es solo técnico, es ético y legal. Un error en el diseño del modelo o un sesgo en los datos puede discriminar por género, edad, origen o cualquier otra variable sensible. Además, la falta de transparencia convierte muchas veces estos sistemas en “cajas negras” incomprensibles incluso para los propios recruiters.

Los riesgos principales se resumen en tres grandes áreas:

Sesgos y discriminación

La IA puede perpetuar desigualdades históricas si se entrena con datos sesgados. Por ejemplo, un algoritmo que priorice a candidatos de determinados grupos demográficos puede excluir sistemáticamente a mujeres, personas mayores o minorías, afectando a la diversidad y a la equidad del proceso de selección.

Falta de transparencia

Muchos sistemas de IA no explican cómo toman sus decisiones. Esto supone que ni el proveedor ni el recruiter puedan justificar por qué un candidato ha sido descartado. Esta opacidad no solo erosiona la confianza del candidato, también es contraria al Reglamento Europeo de IA, que exige trazabilidad y capacidad de auditoría.

Decisiones automatizadas sin control humano:

Cuando un sistema automatizado decide por sí solo avanzar o rechazar candidatos, se elimina la supervisión humana. El resultado puede ser un proceso injusto y sancionable, además de difícil de defender frente a los propios candidatos.

¿Qué debe hacer tu ATS para protegerte a ti? 

Los proveedores de ATS (o Applicant Tracking System) son los primeros que deben adaptarse a esta normativa. Su responsabilidad no termina en ofrecer un producto competitivo; ahora deben garantizar que sus funcionalidades de IA son seguras, transparentes y cumplen con la ley.

Transparencia obligatoria

Los proveedores deben explicar de forma clara qué módulos de su software utilizan Inteligencia Artificial, qué datos procesan y de qué manera afectan al resultado final. No basta con una declaración genérica, se requiere información que permita a las empresas entender cómo funciona el sistema y justificar su uso frente a candidatos o autoridades.

Documentación y registro en la UE

Todo ATS con funcionalidades de IA debe estar registrado en la base de datos europea de sistemas de alto riesgo. Además, los proveedores deben entregar documentación auditable, de modo que sus clientes puedan presentar pruebas en caso de inspección. Este punto es clave: un cliente no puede defender su proceso si su software no le proporciona la trazabilidad necesaria.

Mitigación activa de sesgos

Los algoritmos deben someterse a auditorías periódicas que identifiquen posibles discriminaciones y permitan corregirlas. Esto incluye revisar los datos de entrenamiento, comprobar que son diversos y representativos, y actualizar los modelos para evitar que reproduzcan desigualdades históricas.

¿Qué funcionalidades de IA no deben utilizarse en reclutamiento? 

El reglamento también establece límites claros. Hay prácticas que no solo son de alto riesgo, sino que directamente están prohibidas en la atracción y selección de talento. Y lo preocupante es que algunas de ellas ya se comercializan en el mercado como si fueran innovaciones.

Categorización biométrica de candidatos

Clasificar a las personas automáticamente en función de variables como edad, género, etnia, religión u orientación sexual es éticamente inaceptable y ahora también ilegal. Cualquier ATS que incluya este tipo de prácticas pone a sus clientes en un riesgo legal inmediato.

Filtros opacos de candidatos

Sistemas que descartan perfiles sin explicar qué criterios se han aplicado ni dar la posibilidad de revisión humana. Estos filtros vulneran el principio de transparencia y exponen a la empresa a reclamaciones y sanciones, ya que un candidato tiene derecho a conocer por qué no ha avanzado en el proceso.

Prácticas manipulativas

Se refiere a algoritmos que influyen intencionadamente en el comportamiento de los candidatos, empujándolos a aceptar condiciones laborales menos favorables o a tomar decisiones contrarias a su interés. El reglamento es tajante: manipular la autonomía del candidato está terminantemente prohibido.

Reconocimiento de emociones en entrevistas digitales

Algunos softwares prometen analizar microexpresiones faciales, gestos o tonos de voz para decidir si un candidato es honesto, motivado o encaja con un puesto. El problema es doble: estas técnicas son poco fiables y, además, suponen una invasión directa de la intimidad del candidato. El Regamento Europeo de IA las prohíbe por ser discriminatorias y de muy alto riesgo.


¿Qué debes hacer si estás utilizando un ATS con IA?

Aunque los proveedores tienen un rol fundamental, las empresas que usan un ATS (o Applicant Tracking System) con IA también son responsables de cómo se implementa y supervisa esta tecnología en sus procesos de selección.

Porque, cuando utilizamos Inteligencia Artificial en nuestros procesos de selección, debemos recordar que no es infalible. Igual que cualquier persona en tu equipo, una IA puede equivocarse y arrastrar sesgos ocultos que muchas veces pasamos por alto. Ya que, somos propensos a dar por hecho que la IA "lo hace bien". 

Por eso, al igual que supervisarías el trabajo de un nuevo empleado o de un becario en prácticas, también debes revisar y acompañar cada paso que da la tecnología. Solo así podrás garantizar que sus decisiones son justas, transparentes y realmente útiles para tu organización.

Informar a los candidatos

Cualquier candidato debe saber si su proceso será filtrado, evaluado o priorizado mediante Inteligencia Artificial. La normativa reconoce este derecho y obliga a la empresa a comunicarlo de manera clara y transparente.

Mapear el uso de IA en el proceso

La empresa debe tener una visión precisa de en qué fases de la selección interviene la IA. Ya sea en el screening inicial, en entrevistas digitales o en la priorización final, el recruiter necesita identificar dónde está la tecnología para poder gestionarla con responsabilidad.

Exigir documentación certificada al proveedor

No basta con confiar en que el software es “cumplidor”. La empresa debe pedir certificados y documentación que expliquen dónde y cómo se utiliza la IA en el ATS. Este material será esencial para defenderse en una inspección o auditoría.

Evitar funcionalidades prohibidas

La responsabilidad no termina en el proveedor. Si un ATS ofrece reconocimiento de emociones, categorización biométrica o filtros opacos, la empresa debe rechazar su uso de forma explícita.

Garantizar la supervisión humana

Ninguna decisión final sobre contratar o descartar a un candidato puede quedar exclusivamente en manos de una máquina. La última palabra debe ser de un recruiter, que revise y documente la decisión. Esto no es solo una buena práctica: es una obligación legal bajo el Reglamento Europeo IA.


¿Qué ATS escoger en la era de la Inteligencia Artificial?

Llegados a este punto, la conclusión es clara: no todos los ATS son iguales frente al reto de la nueva legislación de IA. Elegir un software de reclutamiento ya no es solo una cuestión de funcionalidades o de diseño de la interfaz: es, sobre todo, una decisión estratégica que puede marcar la diferencia entre proteger a tu empresa o exponerla a riesgos legales y reputacionales.

En Talent Clue hemos trabajado para que nuestro ATS no solo cumpla con los requisitos del Reglamento Europeo de IA, sino que además se convierta en un aliado de confianza para tu organización. Nuestro objetivo es doble: garantizar la seguridad legal de las empresas y, al mismo tiempo, proteger los derechos de los candidatos en cada fase del proceso de selección.

Por eso, te invitamos a solicitar una demo gratuita de Talent Clue. En esta sesión podrás conocer de primera mano cómo funciona nuestro ATS. Y además, entender en detalle qué medidas hemos implementado para evitar los riesgos que la nueva legislación de IA. Queremos mostrarte cómo trabajamos la transparencia, la trazabilidad y la supervisión humana para que tu empresa pueda reclutar con confianza y responsabilidad.