Aunque la inteligencia artificial (IA) se utiliza principalmente en recursos humanos para seleccionar y preseleccionar candidatos, los gerentes pueden tomar medidas para evitar que los sesgos introducidos al principio del proceso de contratación influyan en su decisión final.
Cuando la empresa tecnológica en la que trabaja Linda anuncia una herramienta de inteligencia artificial (IA) que puede filtrar miles de currículum en minutos y asignar puntajes a los candidatos basados en calificaciones, ella está emocionada porque hará que su trabajo como especialista en adquisición de talento sea mucho más fácil. Sin embargo, unos meses después, Linda nota que el algoritmo clasifica consistentemente a los solicitantes masculinos más alto que a los femeninos. Resulta que el motor fue entrenado para observar patrones en los currículum que la empresa recibió en los últimos 10 años. Dado que la mayoría fueron presentados por hombres, el sistema se enseñó a sí mismo a preferir a candidatos masculinos. Linda informa el problema a su jefe, quien decide notificar a la alta dirección y dejar de usar la herramienta.
Eso es lo que sucedió en Amazon. Sin embargo, muchas personas comparten el entusiasmo por los programas informáticos que pueden hacer que la contratación sea justa y transparente. Después de todo, si tienes un cerebro, tienes sesgos. Y las personas tienden a depender de atajos mentales cuando están sobrecargadas o tienen poco tiempo.
Un estudio encontró que el 60% de las decisiones de contratación se toman en la primera mitad de una entrevista de 30 minutos. Para tomar una decisión de juicio tan rápida, los gerentes pueden elegir a alguien debido, por ejemplo, a un sesgo de similitud, nuestra preferencia innata por las personas que son como nosotros, o un sesgo de rapidez, que nos motiva a seguir nuestro instinto cuando tenemos prisa.
Teóricamente, un robot puede operar sin estos problemas y centrarse solo en credenciales y rendimiento en entrevistas, ignorando factores no relacionados como género y edad. Sin embargo, la investigación y las aplicaciones en la vida real de la IA demuestran que no es el caso:
- En un estudio de 2019, los anuncios de carreras STEM diseñados para ser neutrales en cuanto al género fueron mostrados por un algoritmo a más solicitantes masculinos que femeninos. Se instruyó al algoritmo que optimizara la eficiencia de costos, y era más caro publicitar a solicitantes femeninas más jóvenes porque se consideraban un grupo demográfico valioso.
- Un análisis de Google mostró que los modelos de procesamiento del lenguaje natural clasifican el texto que menciona discapacidad y enfermedad mental como más tóxico. Incluso frases positivas como “lucharé por las personas con enfermedades mentales” se interpretan como negativas.
- Los sistemas de reconocimiento automático de voz de Amazon, Apple, Google, IBM y Microsoft tienen más dificultades para entender a los hablantes negros que a los blancos. Esto podría afectar cómo la IA interpreta las entrevistas con candidatos no blancos o personas cuya lengua materna no es el inglés.
¿QUÉ SUCEDE DENTRO DE LA ‘MENTE’ DE UN ROBOT?
La IA aprende sesgos a partir de los datos subyacentes. Si la información que alimentamos a los algoritmos es defectuosa, también lo serán los resultados que generen. Existe una compleja red histórica de exclusión de mujeres y minorías del empleo, y esa historia aún está presente en nuestros datos, explica Jiahao Chen, propietario de la firma de auditoría de IA Responsible Artificial Intelligence LLC, en Bloomberg Law. Como resultado, el software de contratación entrenado con estos conjuntos de datos puede perpetuar desigualdades en el lugar de trabajo si no se controla.
Por lo tanto, se necesita supervisión humana para detectar y prevenir que el sesgo se filtre en las decisiones de contratación; sin embargo, solo la mitad de los encuestados en una encuesta reciente dijeron que sus empresas están monitoreando el rendimiento de sus herramientas de IA. Saltarse este paso podría hacer que las prácticas de contratación injustas pasen desapercibidas y pronto conllevar consecuencias legales. En julio, el gobierno de la ciudad de Nueva York promulgó una ley que requiere que los empleadores realicen una auditoría anual para garantizar que su tecnología de IA no tenga sesgos. Varios estados, incluidos California, Illinois, Maryland y Nueva Jersey, han propuesto regulaciones similares.
Si bien la IA se utiliza principalmente en recursos humanos para seleccionar y preseleccionar candidatos, los gerentes pueden tomar medidas para evitar que los sesgos introducidos al principio del proceso de contratación influyan en su decisión final. Aquí te mostramos cómo.
PONTE CURIOSO
En primer lugar, educa a ti mismo sobre cómo tu empresa utiliza herramientas de IA en la contratación y evalúa el nivel de riesgo en cada punto. Supongamos que tu departamento de recursos humanos utiliza la IA para redactar descripciones de trabajo. Aunque la IA podría introducir sesgo si las descripciones anteriores contienen un lenguaje que favorece o excluye a ciertos grupos (por ejemplo, la investigación muestra que palabras como “competitivo” y “decidido” pueden desalentar a las mujeres de postularse), la solución es tan sencilla como pedirle al gerente de contratación que las revise antes de publicarlas públicamente. Puedes limitar el impacto del sesgo siempre y cuando se reconozca temprano.
Por otro lado, si la IA se utiliza para filtrar currículums o analizar entrevistas, las apuestas son mucho mayores. Para cuando recibas los currículums seleccionados por la IA, el software ya habrá enviado rechazos, y no podrás recuperar a esos solicitantes. Esto requiere una estrategia de mitigación más integral.
DESARROLLA SALVAGUARDAS
Una vez que sepas en qué área de tu sistema de IA es propensa al sesgo, puedes establecer puntos de control e implementar medidas apropiadas. Esto requiere que te pongas en contacto con recursos humanos para re-estructurar el proceso de contratación basado en cómo se utiliza la IA. Para las descripciones de trabajo, puedes agregar un paso en el proceso para que recursos humanos siempre las revise contigo antes de listar el puesto. Si tu empresa está utilizando la IA para filtrar currículums, revisa la lista de candidatos antes de realizar las entrevistas de la primera ronda. Te brinda la oportunidad de considerar si hay una representación justa de edad, raza y etnia, género y habilidad antes de que te apegues a alguno de los solicitantes.
No importa en qué etapa estés tratando de minimizar el sesgo, puedes utilizar una técnica llamada “priming” para hacer tu evaluación lo más objetiva posible. Consiste en dirigir tu atención hacia posibles sesgos, para que seas más consciente de ellos al tomar decisiones. Antes de revisar descripciones de trabajo y currículums, hazte preguntas como “¿Cuál es la cualidad más importante que estoy buscando y realmente es relevante para el trabajo?” y “¿Qué pienso de este currículum o persona? ¿Se basa mi impresión en hechos o en mis interpretaciones?”
MITIGA LOS SESGOS
Dado que la IA se entrena con datos sobre nuestras decisiones pasadas, encontrar sesgos en la IA puede ayudarnos a aprender sobre nuestro propio sesgo inconsciente. Tal vez tu software de IA elige a personas que asistieron a las mismas universidades porque has contratado a varios colaboradores destacados que se graduaron de esas escuelas, un ejemplo de sesgo de experiencia.
Cuando descubras sesgos en tu algoritmo, clasifícalo utilizando el modelo SEEDS©, que agrupa los sesgos en cinco categorías: similitud, rapidez, experiencia, distancia y seguridad. Etiquetarlo te ayudará a entender con qué estás lidiando y a desarrollar una estrategia para reducir su influencia. En el ejemplo anterior, puedes redactar preguntas centradas solo en logros laborales y mantenerte en el mismo guion en cada entrevista, para que no te distraigas por la universidad a la que asistieron los candidatos. Al reconocer y mitigar tu sesgo inconsciente, puedes empezar a eliminarlo de tu conjunto de datos y evitar que las futuras iteraciones de tu programa de IA aprendan ese sesgo.
La IA tiene un tremendo potencial para mejorar nuestras vidas, pero aún no es perfecta. Con la tecnología avanzando tan rápidamente, es fácil olvidar que la IA aún está en las primeras etapas de desarrollo. Tal vez algún día la IA pueda aprender a reconocer sus propios sesgos, pero hasta entonces, depende de los humanos realizar el trabajo de mitigación.
Para leer el artículo original haz click en este enlace.