Un estudio revela que la IA favorece currículums escritos por máquinas el 97,6% de las veces
La inteligencia artificial (IA) gana cada vez más protagonismo en los procesos y toma de decisiones dentro de las organizaciones, incluso en las búsquedas de talento. Una ...
La inteligencia artificial (IA) gana cada vez más protagonismo en los procesos y toma de decisiones dentro de las organizaciones, incluso en las búsquedas de talento. Una reciente investigación de la Universidad de Maryland, la Universidad Nacional de Singapur y Ohio State pone la lupa sobre el tema: al enviar a una herramienta de contratación potenciada con IA dos versiones del mismo currículum —una redactada por un humano y otra escrita por ChatGPT—, el sistema favoreció la versión generada por la IA. En números concretos, la IA eligió la versión de ChatGPT el 97,6% de las veces.
En detalle, los investigadores utilizaron 2245 currículums reales escritos por humanos, extraídos de un sitio profesional antes de que existiera ChatGPT. Luego, pidieron a los siete de los modelos de IA más utilizados del mundo —GPT-4o, GPT-4o-mini, GPT-4-turbo, LLaMA 3.3-70B, Qwen 2.5-72B, DeepSeek-V3 y Mistral-7B— que reescribieran cada uno de los documentos.
Tras consultar a los chatbots cuál era el mejor currículum, todos los modelos se eligieron a sí mismos. Específicamente, GPT-4o alcanzó el 97,6%; LLaMA-3.3-70B, el 96,3%; Qwen-2.5-72B, el 95,9%; y DeepSeek-V3, el 95,5%. Por su parte, la versión humana casi nunca ganó.
El equipo de investigadores solicitó a personas reales que evaluaron los currículums en términos de calidad real y repitieron el experimento. El resultado sorprendió: cada IA volvió a elegirse a sí misma, incluso cuando humanos calificaron la versión escrita por personas reales como “más clara, coherente y efectiva”.
Por último, los investigadores simularon 24 postulaciones a un mismo trabajo. Todos los currículums contenían la misma formación. La única variable era si el candidato había usado la misma IA que la herramienta de filtrado. “Estas simulaciones muestran que los candidatos que utilizan el mismo modelo de lenguaje que el evaluador tienen entre un 23% y un 60% más de probabilidades de ser preseleccionados que los solicitantes igualmente cualificados que presentan currículos redactados por humanos, observándose las mayores desventajas en campos relacionados con los negocios, como ventas y contabilidad”, destaca el estudio.
A su vez, subraya que estos sesgos pueden reducirse en más del 50% a través “intervenciones simples” dirigidas a las capacidades de autorreconocimiento de los modelos de lenguaje.
“Estos hallazgos ponen de relieve un riesgo emergente, hasta ahora pasado por alto, en la toma de decisiones asistida por IA, y exigen marcos más amplios de equidad en IA que aborden no solo las disparidades demográficas, sino también los sesgos en las interacciones entre sistemas de IA”, concluye el estudio.