Empresa, universidad y tekis debaten sobre el impacto ético de la IA en RR.HH.
-
Los profesionales de RRHH plantean el riesgo de implantar el uso de la IA sin los conocimientos adecuados sobre esta tecnología
-
Los técnicos recuerdan que la IA es sólo una herramienta y las decisiones siempre las deben tomar personas
-
La universidad afirma que es necesario crear modelos confiables, robustos, equitativos y transparentes que garanticen la explicabilidad de los algoritmos
Madrid, 15 de marzo de 2024 – La sesión Vamos a jugar con la IA ha sido un ejercicio práctico de “iteración” con la inteligencia artificial: un reducido grupo de profesionales del área de gestión de personas ha podido ver una herramienta, en este caso de IA generativa, en funcionamiento, entender su lógica de “razonamiento” y comprender por qué esta tecnología les necesita tanto como a los técnicos que la desarrollan.
Organizado en el campus de la Universidad de Navarra en Madrid y con la participación de su Instituto de Ciencia de los Datos e IA (DATAI), partner académico de IA+Igual, el encuentro era transmitir a los asistentes no sólo el potencial de esta tecnología para hacer más eficientes los procesos de gestión de talento, sino también cómo dotarles de mayor explicabilidad para que sea una herramienta confiable para la toma de decisiones. Un ejemplo muy sencillo ilustra el trasfondo del encuentro: “Podemos utilizar un martillo para clavar un clavo o para golpear a alguien. La herramienta es la misma, pero el uso es diferente. La IA es también una herramienta. El reto está en definir estratégicamente qué uso vamos a hacer de ella”.
Ha abierto la jornada Alberto García Galindo, experto en Fair Learning de DATAI, quien ha realizado un primer ejercicio práctico con una introducción visual al Machine Learning. Ello le ha permitido explicar cómo, a través de la programación algorítmica, los datos se transforman en patrones, estos
en modelos y estos, a su vez, en predicciones. A este respecto, ha alertado sobre la tentación de antropomorfizar la IA ya que “si bien es una tecnología que intenta replicar el pensamiento humano, no es ella la que toma las decisiones, sirve de apoyo a quien tiene que tomarlas”. Por eso, ha finalizado llamando la atención sobre el verdadero reto de la aplicación de la IA específicamente en el campo de la gestión del talento, que no es otro que el de construir modelos de aprendizaje automático éticos basados en cuatro pilares: robustez, equidad, transparencia y confiabilidad. “Esto se traduce en validar los datos que alimentan el algoritmo para que no presente sesgos que deriven en algún tipo de discriminación por género, raza, etc. y que sea posible auditarlo para conocer cómo se toman las decisiones”, ha señalado.
A continuación, Ana Valera, experta en Data Analytics y miembro del Consejo Asesor de IA+Igual, ha planteado una demostración práctica de iteración con IA generativa -en este caso, con ChatGPT- para demostrar cómo la intervención humana es necesaria para poner en contexto lo que entrega e identificar posibles sesgos en sus propuestas. Para ello, ha iniciado un hilo de peticiones a ChatGPT para simular un proceso de reclutamiento, introduciendo tres currículums y analizando cómo los clasifica esta herramienta; previamente, había replicado dos CVs idénticos cambiando el nombre: uno pertenecía a un hombre y el otro a una mujer. Para sorpresa de los directivos presentes, la categorización propuesta ha colocado en primer lugar al hombre y en tercer lugar a la mujer, a pesar de tener ambos la misma trayectoria profesional, igual formación e idénticas habilidades.
“El uso de los datos puede ayudar a tomar mejores decisiones, más justas y objetivas. Pero no está exento de sesgos -asegura Valera-. Las empresas deben cerciorarse de que sus empleados no puedan introducir datos confidenciales en herramientas de IA y asegurarse de que les están dando la formación necesaria para que sean capaces de discernir las ventajas y limitaciones del uso de la IA”, subraya la experta en análisis de datos.
En línea con el ejemplo de Valera, Ambrosio Nguema, experto en LLM y miembro del Consejo Asesor de IA+Igual, ha desarrollado un algoritmo en Phyton específicamente para la sesión en el que ha volcado una base de datos de currículos con el objetivo de mostrar el back office de los modelos que sustentan la IA. Combinando variables que debe determinar el gestor de personas, ha permitido evidenciar no sólo cómo puede facilitar la automatización del proceso sino, sobre todo, cuál es el espacio que evidencia el valor de RR. HH en la programación y aprendizaje de los modelos
Un proyecto de innovación para dar confiabilidad a la IA en RR. HH
Finalmente, se ha abierto un debate en el que han participado los ponentes junto con los promotores del proyecto IA+Igual. Félix Villar, socio de IN2 y experto en auditoría algorítmica, ha clarificado que, aunque estos modelos pueden ayudar a mejorar la productividad, las empresas se enfrentan a un dilema: “Es difícil que una organización pueda realizar un desarrollo propio y, lo habitual, es contratar un proveedor que quizá ha entrenado el modelo del algoritmo con 200.000 datos de un lugar geográfico concreto, aunque lo use para empresas de todo el mundo”, ha expuesto Villar, quien es, también, uno de los promotores de IA+Igual.
Marisa Cruzado, líder del proyecto IA+Igual y experta en innovación social, ha señalado que Recursos Humanos se enfrenta al reto de entender la inteligencia artificial. “Para liderar el proceso de transformación que ya se está produciendo, los responsables de RR. HH deben convertir las herramientas de IA en un copiloto necesario que les facilite la información necesaria para su toma de decisiones, de una manera rápida, eficiente y confiable. Desde IA+Igual estamos testando un modelo de auditoría algorítmica que sentará las bases de un futuro modelo de certificación. Trabajamos desde el presente, con la mirada puesta en un futuro que sea diverso y en el que la tecnología nos dé soporte para conseguir los objetivos de equidad e igualdad de oportunidades en el ámbito laboral, de una forma ética, transparente y confiable”.
Y finalmente, Maite Sáenz, experta en gestión de RR. HH, ha advertido de que “cuando decimos que los algoritmos alucinan en realidad hemos de convencernos de que quienes alucinamos somos nosotros”. Los sesgos inconscientes que comprometen los principios de robustez, equidad, transparencia y confiabilidad referidos por Alberto García son actos reflejos propios del razonamiento humano que trasladamos a la inteligencia artificial con la misma inconsciencia con la que los vivimos en nuestra vida cotidiana. Precisamente, el objetivo de IA+Igual es auditar algoritmos para garantizar la equidad en la diversidad.
El cierre del evento ha corrido a cargo de Iván Cordón, líder del equipo de DATAI y experto en Innovación tecnológica, que ha puesto sobre la mesa la necesidad de que sean “equipos multidisciplinares y multidiversos quienes pongan coto a los sesgos que todos tenemos y que la IA reproduce”. Ha concluido dando una vuelta más al hilo del evento, al afirmar que “la tecnología es una herramienta y no sustituirá al profesional de Recursos Humanos que aprenda a utilizarla, pero sí sustituirá a quienes no sepan hacerlo”.