Las formas en que los algoritmos de contratación pueden introducir sesgos

Parte del problema es que esta tecnología muestra al empleador quién tiene más probabilidades de hacer clic en ese anuncio laboral

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

¿Los algoritmos de contratación previenen los sesgos, o los amplifican? Llegar a una respuesta es más complicado de lo que p

arece.

El contratar rara vez requiere una sola decisión, sino que es una secuencia de decisiones más pequeñas. Los algoritmos juegan diferentes roles a lo largo de este proceso: algunos dirigen ciertos anuncios laborales hacia ciertos candidatos, mientras que otros señalan candidatos pasivos para ser reclutados. Las herramientas predictivas analizan y califican hojas de vida, y ayudan a los gerentes de contrataciones a evaluar las competencias de los candidatos en nuevas formas.

Muchos esperan que los algoritmos ayuden a los humanos que toman decisiones a evitar sus propios prejuicios al añadirle consistencia al proceso de contratación. Sin embargo, los algoritmos introducen nuevos riesgos propios. Pueden replicar sesgos históricos e institucionales, amplificando las desventajas que se ocultan en datos como la asistencia a universidades o las calificaciones de evaluación del desempeño. Incluso si los algoritmos remueven parte de la subjetividad del proceso de contrataciones, los humanos siguen muy involucrados en las decisiones finales. Los argumentos que presentan a los algoritmos “objetivos” como más justos y exactos que los falibles humanos no reconocen plenamente que, en la mayoría de los casos, ambos juegan un rol.

Entender los sesgos en los algoritmos de contrataciones y las formas para mitigarlos requiere que exploremos cómo funcionan las tecnologías predictivas en cada paso del proceso de contratación. Aunque comúnmente comparten una base de aprendizaje de las máquinas, las herramientas que se usan al inicio del proceso pueden ser fundamentalmente distintas de las que se emplean más adelante.

Nuestro análisis de herramientas predictivas a lo largo del proceso de contratación ayuda a clarificar qué es lo que hacen los “algoritmos de contratación” al igual que dónde y cómo el sesgo puede entrar en el proceso. Desafortunadamente, encontramos que la mayoría de los algoritmos de contratación tienden hacia los sesgos. Aunque su potencial para ayudar a reducir los sesgos interpersonales no debería desestimarse, sólo las herramientas que proactivamente atiendan las disparidades más profundas ofrecerán alguna esperanza de que la tecnología predictiva pueda ayudar a promover la equidad, en lugar de erosionarla.

Los candidatos

El proceso de contratación empieza mucho antes de que quien busca empleo presente una solicitud. Durante la etapa de reclutamiento, las tecnologías predictivas ayudan a anunciar ofertas laborales, notificarle a quienes buscan empleo acerca de posiciones potencialmente atractivas y revelarles candidatos posibles a los reclutadores, para que estos se acerquen proactivamente.

Para atraer solicitantes, muchos empleadores utilizan plataformas algorítmicas para anuncios y tableros de ofertas laborales, para llegarle a las personas “más relevantes”. Estos sistemas, que le prometen a los empleadores un uso más eficiente de presupuestos de reclutamiento, suelen realizar predicciones altamente superficiales: No predicen quién tendrá éxito en el rol, sino quién tiene más probabilidades de hacer clic en ese anuncio laboral.

Estas predicciones pueden hacer que los anuncios de empleos sean entregados de una forma que refuerce los estereotipos raciales y de género, incluso cuando los empleadores no tienen esa intención. En un reciente estudio, encontramos que los anuncios lanzados en Facebook a un amplio público para puestos como cajeros de supermercado le fueron mostrados a una audiencia de un 85% de mujeres, mientras que los trabajos en compañías de taxi llegaron a una audiencia que era aproximadamente 75% afroamericana. Este es un clásico caso en que un algoritmo reproduce un sesgo del mundo real, sin intervención humana.

Mientras tanto, los tablones de ofertas laborales personalizadas, como ZipRecruiter, buscan aprender automáticamente las preferencias de los reclutadores y usan esas predicciones para solicitar aspirantes similares. Como Facebook, dichos sistemas de recomendaciones están construidos intencionalmente para encontrar y replicar patrones en el comportamiento de los usuarios, actualizando dinámicamente las predicciones conforme interactúan los empleadores y solicitantes. Si el sistema detecta que los reclutadores interactúan con mayor frecuencia con hombres blancos, podría encontrar semejanzas para esas características y replicar ese patrón. Esta clase de impacto adverso puede suceder sin instrucciones explícitas, y peor aún, sin que nadie se dé cuenta.

Los algoritmos de reclutamiento quizá no siempre ameriten titulares distópicos, pero juegan un rol crítico al determinar quién tiene acceso al proceso de contratación.

El embudo

Una vez que las solicitudes comienzan a llegar, los empleadores buscan enfocarse en los candidatos más fuertes. Aunque los algoritmos en esta etapa suelen encuadrarse como ayudas para las decisiones de los directivos que contratan, en realidad pueden rechazar automáticamente a una parte significativa de los candidatos.

Algunos de estos algoritmos son simplemente viejas técnicas disfrazadas de nueva tecnología. Desde hace mucho los empleadores han hecho “preguntas de descarte” para establecer si los candidatos están mínimamente cualificados; ahora, los chatbots y el análisis de currículum desarrollan esta tarea. Otras herramientas van más allá, usando aprendizaje de las máquinas para hacer predicciones basadas en decisiones previas, ahorrándole tiempo a los empleadores y, supuestamente, minimizando los efectos del prejuicio humano. A primera vista, pudiera parecer natural que las herramientas de análisis tomen como modelo las decisiones anteriores, pero estas suelen reflejar los mismos patrones que muchos empleadores están activamente tratando de cambiar a través de iniciativas de diversidad e inclusión.

Otras herramientas de selección incorporan aprendizaje de las máquinas para predecir qué solicitantes serán “exitosos” en el trabajo, muchas veces medidos por señales relacionadas con la antigüedad, la productividad o el desempeño (o por la ausencia de señales como atrasos o acción disciplinaria).

Notablemente, en los Estados Unidos, estas clases de procesos de selección caen bajo las regulaciones tradicionales. Los empleadores están obligados a inspeccionar sus instrumentos de evaluación en busca de impactos adversos en contra de subgrupos demográficos y pueden ser responsabilizadas por usar procedimientos que abiertamente favorezcan a un cierto grupo de solicitantes.

Sin embargo, el mero acto de diferenciar a personas de alto y de bajo desempeño suele reflejar evaluaciones subjetivas, que son una conocida fuente de discriminación dentro de los lugares de trabajo. Si los datos subyacentes de desempeño están contaminados por los efectos residuales del sexismo, racismo u otras formas de sesgo estructural, eliminar los sesgos de un algoritmo de contrataciones construido a partir de esos datos es meramente una ‘curita’ sobre una herida infectada. Y si un empleador puede probar que su herramienta de selección sirve a un interés empresarial concreto –un estándar relativamente bajo– fácilmente podrán justificar el uso de un algoritmo de selección que lleve a resultados inequitativos.

Finalmente, una vez que un empleador selecciona al candidato a contratar, otras herramientas predictivas buscan ayudar al patrón a hacer una oferta que el solicitante tienda a aceptar. Dichas herramientas podrían infringir las leyes que le prohíben a los empleadores preguntar directamente acerca de la historia salarial, consolidando –o al menos haciendo más difícil de corregir– longevos patrones de disparidad salarial.

Hacia la equidad

Aunque la actual ley estadounidense pone algunas limitaciones a los empleadores que usan herramientas predictivas de contrataciones, está mal preparada para atender los cambiantes riesgos planteados por las herramientas de contrataciones basadas en aprendizaje de las máquinas.

Entonces, ¿cómo podemos asegurar que los algoritmos de contrataciones realmente promuevan la equidad? La regulación y las mejores prácticas a nivel de industria ciertamente tienen roles a jugar. Mientras tanto, los vendedores que construyen herramientas de aprendizaje predictivo y los empleadores que las usan deben pensar más allá de los requisitos mínimos de cumplimiento. Deben considerar si sus algoritmos realmente producen resultados de contrataciones más equitativos. Antes de desplegar cualquier herramienta predictiva, deberían evaluar cómo, con el paso del tiempo, las medidas subjetivas de éxito podrán darle forma de manera adversa a predicciones de las herramientas. Más allá de sólo revisar el impacto adverso en la etapa de selección, los empleadores deberían monitorear su línea desde el inicio hasta el fin, para detectar lugares donde los sesgos latentes se ocultan o reemergen.

Miranda Bogen es analista senior de políticas en Upturn.