04/05/2026
La inteligencia artificial ya participa en procesos de contratación, pero su uso plantea una pregunta incómoda: ¿está evaluando mejor a los candidatos o simplemente reconociendo patrones similares a los suyos?
Cada vez más empresas utilizan herramientas de inteligencia artificial para analizar currículums. La promesa es clara: agilizar procesos, reducir sesgos humanos y encontrar mejores perfiles en menos tiempo.
Sin embargo, la realidad empieza a mostrar matices.
Cuando una máquina evalúa candidatos, lo hace en base a patrones, estructuras y datos previos. Y eso puede generar un efecto inesperado: priorizar perfiles que "se parecen" a lo que ya fue considerado exitoso.
El problema es que ese criterio no siempre es neutral.
Con la popularización de herramientas para redactar CVs, cada vez más personas utilizan inteligencia artificial para mejorar sus postulaciones.
El resultado es un fenómeno curioso: currículums más prolijos, mejor estructurados y optimizados para pasar filtros automáticos.
Pero ahí aparece una paradoja.
Si muchas personas usan sistemas similares para escribir, y esos mismos sistemas son evaluados por otras IA, el proceso empieza a retroalimentarse.
Las máquinas terminan reconociendo -y favoreciendo- aquello que ellas mismas generarían.
Uno de los principales efectos de este proceso es la pérdida de diversidad.
Cuando todos los perfiles empiezan a verse similares, se reduce la posibilidad de detectar talentos distintos, trayectorias no convencionales o habilidades que no encajan en un formato estándar.
En lugar de ampliar oportunidades, la automatización podría estar acotándolas.
Y eso va en contra de uno de los objetivos iniciales de la tecnología.
La inteligencia artificial se presentó como una herramienta para reducir prejuicios humanos en la selección de personal.
Pero eso no significa que sea completamente objetiva.
Los algoritmos aprenden de datos existentes. Y si esos datos contienen sesgos -aunque sean indirectos-, pueden reproducirlos o incluso amplificarlos.
En este caso, el sesgo no es necesariamente social o cultural, sino técnico: favorecer ciertos formatos, estilos o estructuras.
Frente a este escenario, vuelve a tomar valor la intervención humana.
No para reemplazar la tecnología, sino para complementarla.
Evaluar contexto, interpretar trayectorias y detectar potencial son aspectos que todavía requieren una mirada más amplia que la de un algoritmo.
La combinación entre eficiencia tecnológica y criterio humano parece ser el punto de equilibrio.
Más allá del debate, lo cierto es que el proceso de búsqueda laboral está cambiando.
Hoy no solo importa la experiencia o la formación, sino también cómo se presenta esa información y qué tan compatible es con los sistemas que la analizan.
Entender esto puede marcar la diferencia entre quedar afuera o avanzar en un proceso.
La incorporación de inteligencia artificial en la selección de talento abre nuevas posibilidades, pero también nuevos desafíos.
Cuando las máquinas empiezan a evaluar contenido generado por otras máquinas, el riesgo no es solo técnico, sino estratégico.
Porque en ese juego, la clave no será solo adaptarse a la tecnología, sino entender cómo funciona para no quedar atrapado en sus propios límites.
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
27/04/2026
23/04/2026