Las herramientas de IA tienen un impacto trasversal que dejará fuera a quien no sepa usarlas
Es esencial la transparencia con los empleados para que entiendan cómo se interpretan los
algoritmos
Elena Martín, investigadora en Ética del Aprendizaje Automático de DATAI y Carlos Cabañas, Talent & HR Solutions de Aggity, han participado en el tercer webinar del Campus IA+Igual ‘Ejemplos prácticos de cómo y para qué aplicar la IA en Recursos Humanos’. Las claves son establecer claramente para qué necesita la empresa usar la IA, depurar muy bien los datos y contar con una persona experta que supervise el resultado.
Madrid, 19 de marzo de 2024 – LDurante la sesión celebrada hoy martes, Carlos Cabañas, Talent & HR Solutions de Aggity, ha explicado el caso de éxito de una multinacional del sector Farma que ha desarrollado un algoritmo para evitar la fuga del talento y la rotación no deseada en España (ver vídeo).
Antes de exponer este caso, cuyo algoritmo está siendo auditado por IA+Igual, Cabañas ha alertado a los profesionales de la tentación de usar la Inteligencia Artificial generativa (IAg) porque está de moda: “RR. HH solo debe utilizarla si ha identificado un problema y tiene un objetivo claro”. Además, ha establecido otra premisa clara: “El valor de los datos como punto de partida es crítico, pero hay que tenerlos en cuenta durante todo el proceso, incluidos los resultados, para evitar posibles anomalías. La intervención humana disminuye a medida que gana peso la tecnología, pero siempre debemos tenerla en cuenta”.
La investigadora en Ética del Aprendizaje Automático de DATAI, Elena Martín, también ha reforzado esta idea nuclear, poniendo de relieve que “el funcionamiento predictivo está más allá de la IAg y los datos usados y es responsabilidad de las personas que están detrás de la tecnología. Es esencial la transparencia con los empleados para que entiendan cómo se interpretan los datos y cómo les afectan”.
Cómo evitar la fuga del talento
A raíz de la pandemia COVID-19 y el posterior crecimiento de Farma, la retención del talento se convirtió en una prioridad para el sector ante la dificultad para reemplazar a los empleados que abandonan la empresa -se trata de perfiles con una curva de aprendizaje alta-. Por eso, Aggity ha desarrollado un algoritmo para la multinacional mencionada, partiendo de 103 variables, 33 de ellas correlacionadas con riesgo de fuga (rango de edad, nº. hijos, antigüedad en la empresa); otras, como género o performance, fueron descartadas. Ha seguido estos pasos:
1º. Identificación, análisis e integración de datos. El primer paso consistió en definir el objetivo del proyecto, partiendo del preprocesamiento de los datos proporcionados por RR. HH y, a continuación, se realizó un diagnóstico del posible motivo de la rotación no deseada. El diseño de un cuadro de mando de fidelización, un trabajo descriptivo, permitió reducir dicha rotación del talento del 30% al 10%.
2º. Modelo predictivo de desvinculación del empleado. Acto seguido, se puso el foco en el análisis predictivo con la información en bruto codificada y homogeneizada para ver qué sucedería en los próximos 12 meses.
3º. Resultados y hoja de ruta. A partir del último paso, el prescriptivo, Aggity propuso a la empresa iniciativas de vinculación, palancas de mejora del modelo predictivo, un cuadro de mando de seguimiento y la realización de workshops interdepartamentales para identificar la analítica de uso.
Un algoritmo es, para Carlos Cabañas, “una coctelera de datos que hay que depurar para extraer hipótesis sin caer en el riesgo de dejarse embaucar con los resultados”. Por eso, en la actualidad, la empresa de Farma trabaja con las áreas implicadas -RR. HH, tecnología, etc.- en el desarrollo de una cultura que use de forma ética e inteligente la IA. Para Cabañas, “el impacto trasversal de las herramientas de IA dejará fuera a quien no sepa usarlas”.
Martín ha partido de la definición de IA: “Un campo multidisciplinar en el que históricamente han confluido diferentes áreas como las matemáticas, estadística e informática y, más recientemente, han ganado terreno la ética y las ciencias sociales”. A partir de ahí, para que un aprendizaje automático sea responsable debe ajustarse a cuatro claves, según la investigadora de DATAI: Equidad -hay que trabajar en tres grandes vías para mitigar los sesgos históricos (preprocesamiento de datos, modelo que procesa los datos y resultado ofrecido); Robustez -se debe valorar, por ejemplo, si una herramienta diseñada para España, como la expuesta por Cabañas, es extrapolable a otros países; Transparencia o explicabilidad -por qué el algoritmo llega a una predicción-; y Confiabilidad -no se centra en un número si no en su nivel de confianza.
“Es muy importante partir de un planteamietno ético por el impacto que puede tener el modelo de aprendizaje automático sobre una población”, asegura la experta en Ética. Ha recurrido al ejemplo de Ocean model, un modelo de IA de caja negra que otorga un porcentaje de 0 a 100 a 5 dimensiones de la personalidad después de visionar un vídeo de 1 minuto. Los resultados cambian si el espectador usa gafas o no o pone de fondo del escritorio del ordenador una biblioteca, entre otras variables que nada tienen que ver con su personalidad.