Cómo usar la inteligencia artificial en selección de personal sin riesgos

Inicio » Blog » Clima laboral y bienestar de los trabajadores » Cómo usar la inteligencia artificial en selección de personal sin riesgos
Con el reciente acuerdo de la Comisión Europea para regular el uso de IA, las empresas deberán plantearse qué aplicaciones pueden dar a esta tecnología. En Grupo SPEC te explicamos cómo afecta la nueva normativa al uso de IA en selección de personal.

La revolución que ha supuesto la inteligencia artificial en la empresa es innegable: se ha convertido en una herramienta fundamental a la hora de optimizar cualquier procedimiento y hacerlo más ágil y eficiente. Hasta ahora, esta tecnología carecía de una normativa gubernamental que regulase su uso e hiciera frente a las prácticas de riesgo, derivadas principalmente de la opacidad de los algoritmos de IA y su dependencia de los datos. Esto ha cambiado recientemente: en diciembre de 2023 la Comisión Europea llegó a un acuerdo para fijar dicha normativa, que tendría como base la propuesta del Parlamento Europeo y del Consejo de 2021, que, según los plazos europarlamentarios, empezaría a aplicarse en 2026. Esta propuesta tiene como objetivo garantizar que los sistemas de IA usados en la UE sean seguros y respeten los derechos de los ciudadanos/as, regulando su uso por niveles de riesgo.

Recursos Humanos es uno de los sectores donde la IA está despuntando en los últimos años, especialmente en el proceso de reclutamiento. Hoy veremos cómo afecta el nuevo marco regulador al uso de IA en selección de personal.

 

Prácticas de riesgo inadmisible

Esta categoría engloba aquellos sistemas de IA que violan los derechos fundamentales, por lo que su uso quedaría totalmente prohibido.

Uno de los casos inadmisibles contemplados son los sistemas de reconocimiento de emociones en el lugar de trabajo, por lo que ya no podría utilizarse IA con reconocimiento de voz o análisis del lenguaje corporal para realizar entrevistas a los aspirantes o evaluar su desempeño una vez contratados/as.

 

Prácticas de alto riesgo

Así están considerados aquellos «sistemas de IA destinados a utilizarse para la contratación o selección de personas físicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas», por los posibles sesgos discriminatorios que puedan implicar.

Estos sistemas podrían usarse, pero supeditados a requisitos y obligaciones estrictos, como llevar un control de calidad de los datos que los alimentan, registrar toda actividad y garantizar su trazabilidad y ofrecer documentación detallada sobre su funcionamiento, además de contar con medidas apropiadas de supervisión humana.

 

Prácticas de riesgo limitado

Estos sistemas estarán obligados a cumplir con criterios de transparencia, es decir, a informar al usuario/a del uso de esta tecnología.

Así, utilizar chatbots impulsados por IA generativa como primer contacto con los candidatos/as estaría permitido siempre que no se usen como método de evaluación y las personas sean informadas de que están tratando con una máquina.

 

Sanciones

Las multas por infracciones del Reglamento de Inteligencia Artificial se han fijado como un porcentaje del volumen de negocios anual de la empresa infractora o un importe determinado, si este fuera superior –sin embargo, se establecen límites más proporcionados para pymes y empresas emergentes–:

  • 35 millones de euros, o el 7 %, por aplicar IA prohibidas.
  • 15 millones, o el 3 %, por incumplir las obligaciones del reglamento.
  • 7,5 millones, o el 1,5 %, por presentar información inexacta.

En Grupo SPEC cumplimos con la normativa europea para desarrollar soluciones de gestión de Recursos Humanos innovadoras e inteligentes. Si necesitas más información, no dudes en contactar con nuestro servicio de atención al cliente.