¿La IA reducirá los sesgos de género en las contrataciones?

Los sesgos que tienen las personas pueden ser incluidos en los algoritmos

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

La inteligencia artificial (IA) está generando disrupción en todos los ámbitos de la vida, incluyendo la forma en que las organizaciones encuentran al talento. Generalmente, las compañías están al tanto del rendimiento sobre la inversión que implica encontrar a la persona correcta para el trabajo adecuado.

McKinsey estima que, en roles altamente complejos, cabe esperar que los empleados estelares produzcan 800% más que los de un desempeño promedio. Además, un reciente estudio de la Harvard Business School mostró que hay inclusos mayores beneficios al evitar trabajadores tóxicos.

Sin embargo, las organizaciones muchas veces no pueden atraer al talento adecuado, pues dependen de prácticas intuitivas de identificación, en lugar de que estas estén respaldadas en datos. De hecho, demasiados líderes son contratados con base en su pericia técnica, influencia política o desempeño en la entrevista. Como ilustro en mi más reciente libro, “Why Do So Many Incompetent Men Become Leaders? (And How to Fix It),” la mayoría de las empresas se enfocan en los rasgos equivocados, contratando a partir de la confianza en lugar de la competencia, el carisma en lugar de la humildad y las tendencias narcisistas en lugar de la integridad – lo que explica el exceso de líderes incompetentes y hombres. El resultado es una desconexión patológica entre las cualidades que nos seducen en un líder y las que son necesarias para ser un líder efectivo.

Una pregunta interesante que surge es hasta qué punto las nuevas tecnologías podrían ayudarnos a reducir errores, ruido y sesgos en nuestros procesos de identificación del talento. ¿Las mujeres estarían mejor si la IA y los algoritmos estuvieran a cargo de las contrataciones? Investigaciones previas han destacado una clara inconsistencia en cuanto a género y liderazgo. Por una parte, las mujeres suelen ser evaluadas en forma más negativa por otros, incluso aunque hay muy pocas diferencias de comportamiento entre mujeres y hombres.

Por la otra, los metaanálisis a gran escala sugieren que las mujeres tienen una ligera ventaja cuando se trata de las habilidades suaves que predisponen a los individuos a ser líderes más efectivos, y que generalmente adoptan estilos de liderazgo más efectivos que los hombres. Por ejemplo, si los líderes fueran seleccionados con base en su inteligencia emocional, autoconsciencia, humildad, integridad y facilidad de entrenamiento, la mayoría de los líderes serían mujeres en lugar de hombres.

Algoritmos y sesgos

Sin embargo, recientemente han salido noticias que indican que la IA de hecho podría contribuir a un sesgo e impacto adverso incluso mayor con respecto a las mujeres y que cuando los algoritmos son entrenados para emular a los reclutadores humanos, podrían no sólo reproducir los sesgos humanos, sino exacerbarlos, generando una forma mucho más eficiente de discriminación.

Por supuesto, si la IA es entrenada con datos sesgados –por ejemplo, si la enseñamos a predecir qué candidatos serán calificados positivamente por entrenadores humanos– no sólo emulará, sino que también exacerbará el sesgo humano: aumentándolo y volviéndolo más eficiente. Esto puede evitarse enseñándole a la IA a predecir resultados relevantes y objetivos, en lugar de a imitar la intuición humana.

Adicionalmente, hay razones para esperar que las herramientas de talento por IA sean más exactas y predictivas que los humanos (y no sólo porque los humanos generalmente son malos para esto). Nuestro método favorito para revisar e investigar candidatos — incluyendo líderes — es la entrevista, y estudios científicos a gran escala han mostrado que las entrevistas son más predictivas cuando son altamente estructuradas. Mientras que las entrevistas en persona/análogas son difíciles de estandardizar, las entrevistas en video nos permiten colocar a las personas en la misma experiencia, capturar millones de datos sobre sus comportamientos (por ejemplo, lo que dicen, cómo lo dicen, el uso de lenguaje, el lenguaje corporal y las microexpresiones) y remover del proceso a ser humanos prejuiciados. Es seguro suponer que automatizar las entrevistas que hoy son desestructuradas y calificadas por humanos reducirá el sesgo y el nepotismo, mientras incrementa la meritocracia y la exactitud predictiva. Esto debería ser bueno para las mujeres (y malo para los hombres).

Una de las grandes ventajas de la IA es que, además de ser mejor para detectar cosas (es decir, millones de puntos de datos), también es superior para ignorar cosas. Imagine a un humano -asumamos que es hombre - ético, bienintencionado y de mente abierta, que tiene toda la intención de ser justo en sus prácticas de contratación y por lo tanto está decidido a evitar sesgos de género en su proceso de contratación. Sin importar qué tanto se esfuerce, será muy difícil para él ignorar el género de los candidatos. Imagínelo sentado frente a una candidata, repitiéndose a sí mismo: “no debo pensar acerca del hecho de que esta persona es una mujer,” o “no debo dejar que el género de esta persona interfiera con mi evaluación.” De hecho, entre más trate de reprimir ese pensamiento, más destacará en su mente. Esto también llevaría a distracción o sobrecompensación. En contraste, la IA puede entrenarse para ignorar el género de las personas y enfocarse sólo en las señales relevantes de talento o potencial. Por ejemplo, los algoritmos pueden entrenarse para detectar señales relevantes de cociente emocional, capacidad o habilidades de comunicación, mientras es verdaderamente ciego respecto al género. Esto definitivamente favorecería a las mujeres.

El factor crítico para que esto funcione es que las organizaciones identifiquen datos reales de desempeño para entrenar los algoritmos. Si se le enseña a la IA a predecir o anticipar preferencias humanas, como si la persona será del agrado del jefe una vez contratada, podemos esperar que los sesgos se mantengan … y aumenten.

Sin embargo, si la IA es entrenada para identificar los verdaderos motores del desempeño –definido ampliamente como la contribución del individuo hacia la organización– podemos esperar una evaluación mucho más justa, exacta y replicable del potencial de las personas. Nuevamente, esto debería ser bueno para las mujeres.

Claramente hay razones para tener esperanza en la IA para aquellos que no solo están interesados en ayudar a las mujeres a estar más representadas en las filas de los liderazgos, sino también en mejorar la calidad de nuestros líderes. Sin embargo, muchas de las innovaciones emergentes en este nuevo mundo de la identificación del talento perfeccionada tecnológicamente e impulsada por datos siguen en proceso, y necesitamos asegurar que no solo sean exactas, sino también legales y éticas como alternativas a los métodos existentes. Por encima de todo, es tiempo de admitir que la mayoría de las prácticas actuales están lejos de ser efectivas, y que han contribuido a mucha de la injusticia y nepotismo que gobierna el lugar de trabajo promedio. Por lo tanto, brindemos por encontrar la autoconciencia necesaria para empezar a mejorar.