En los últimos meses, los departamentos de Recursos Humanos de todo el mundo han experimentado un fenómeno inédito: un auténtico alud de solicitudes de empleo redactadas por inteligencia artificial.

Herramientas como ChatGPT han democratizado el acceso a redacciones pulidas, asequibles y cargadas de palabras clave, lo que ha disparado el número de candidaturas que llegan a las empresas. 

Este tsunami digital amenaza con colapsar los sistemas tradicionales de selección y plantea importantes retos éticos y operativos.

Las cifras que estremecen a Recursos Humanos

Según datos de LinkedIn, la plataforma procesa alrededor de 11.000 candidaturas por minuto, una cifra que ha crecido un 45% respecto al año anterior. 

Este volumen creciente obliga a los reclutadores a recurrir a sus propias soluciones de IA para filtrar esas solicitudes antes de que terminen amontonadas en un buzón sin revisar.

El resultado es una dinámica en la que, de un lado, los candidatos confían en algoritmos para destacar sus habilidades y, del otro, las empresas contratan algoritmos que deciden quién merece una entrevista.

Aunque a primera vista puede parecer que la automatización agiliza el proceso, lo cierto es que muchas de estas candidaturas resultan indistinguibles entre sí.

Con un texto estructurado de forma uniforme y cargado de “keywords” predefinidas. Estos son términos que el sistema de gestión de candidaturas (ATS, por sus siglas en inglés) reconoce como valiosos.

Al final, los reclutadores se encuentran filtrando millones de documentos genéricos y optimizados al milímetro. Las IA generan perfiles que cumplen con los requisitos formales pero carecen de individualidad y autenticidad

Discriminación latente en los algoritmos

Cuando se externaliza la redacción de un currículo a una IA, no solo se delega la forma, sino también el fondo. Los modelos de lenguaje aprenden de ingentes cantidades de textos en internet, donde anidan prejuicios históricos de género, raza y clases sociales. 

Por ejemplo, estudios recientes han demostrado que los sistemas de clasificación favorecen solapadamente a perfiles masculinos cuando analizan candidaturas para puestos tradicionalmente dominados por hombres. 

Del mismo modo, los programas de análisis de vídeo en entrevistas por IA han mostrado sesgos contra acentos no nativos o contra personas con determinadas expresiones faciales.

Estos sesgos son especialmente preocupantes porque operan bajo una capa de “objetividad matemática” que los reclutadores asumen como infalible. Cuando un sistema rechaza a un candidato, raramente se cuestiona si el motivo está fundado en datos injustos. 

La consecuencia: aquellos colectivos ya vulnerables tienden a recibir menos oportunidades, profundizando la brecha de diversidad en las organizaciones.

Impacto en la diversidad y la cultura corporativa

La homogeneización de los currículos también erosiona la diversidad de pensamiento. Si todos los aspirantes presentan aptitudes y logros de forma calcada, las empresas pierden la posibilidad de descubrir perfiles singulares que, pese a no adaptar su currículo al 100% en formato ATS, podrían aportar frescura e innovación. 

Esa uniformidad corre el riesgo de traducirse en equipos más parecidos entre sí y menos creativos, justo lo contrario de lo que muchas compañías defienden en sus valores corporativos.

La carrera armamentística de la IA

Lejos de amainar, la tormenta de IA en los procesos de selección se intensifica. A medida que los sistemas de detección de currículos generados por inteligencia artificial se perfeccionan, también lo hacen los generadores de texto. 

Esta dinámica recuerda a una carrera armamentística: cada avance de un bando se contrarresta con un avance del otro.

Compañías emergentes como Jobright.ai ofrecen servicios que van más allá de redactar un currículo: completan automáticamente todo el proceso de solicitud, personalizan cartas de presentación y optimizan los perfiles de LinkedIn. Sus usuarios aseguran haber duplicado sus oportunidades de entrevista.

En respuesta, los departamentos de Recursos Humanos incorporan detectores de “señales” de IA (repetición de estructuras sintácticas, uso excesivo de sinónimos o formatos estándares) para separar aquellas candidaturas que carecen de un toque humano real.

Regulación y respuestas institucionales

Ante este panorama, los legisladores empiezan a alzar la voz. En Nueva York, la Local Law 144 exige auditorías independientes a los sistemas de IA empleados en procesos de selección, con el fin de identificar y corregir posibles sesgos. 

Illinois regula desde 2023 la utilización de entrevistas por vídeo automatizadas, obligando a las empresas a informar a los candidatos de su uso y a obtener su consentimiento expreso. 

En la Unión Europea, la reciente Directiva de Transparencia Algorítmica prevé sanciones para quienes desplieguen motores de decisión sin ofrecer vías de apelación o revisión humana.

Como es usual, la normativa todavía va por detrás de los avances tecnológicos. Muchas pymes y startups no cuentan con los recursos para implementar auditorías profundas o contratar expertos en ética algorítmica. 

En consecuencia, las recomendaciones legales se limitan en ocasiones a “mejores prácticas” que pocas organizaciones aplican de forma sistemática.

Claves para adaptarse al nuevo panorama

Frente a esta revolución silenciosa, tanto candidatos como empresas deben redefinir sus estrategias:

  • Revisión humana complementaria: Incorporar al menos una etapa de evaluación manual, donde un profesional contraste la autenticidad y coherencia del perfil.
  • Formación en IA ética: Capacitar a los equipos de RR. HH. en los nuevos riesgos asociados a los algoritmos, para que sepan detectar sesgos y anomalías.
  • Transparencia con los candidatos: Informar de forma clara cuándo y cómo se utilizan sistemas automatizados, y ofrecer canales de apelación.
  • Fomento de la originalidad: Animar a los aspirantes a incluir ejemplos concretos de proyectos, logros medibles y anécdotas personales que destaquen más allá de las palabras clave.

Estas medidas no eliminarán por completo los desafíos, pero sí contribuirán a equilibrar la balanza entre eficiencia y equidad. La inteligencia artificial seguirá transformando la forma en que captamos talento, pero el factor humano debe seguir siendo el filtro definitivo.