Los sesgos de la IA pueden ser heredados por los profesionales en diagnósticos sin asistencia tecnológica

‘Nature’ ha publicado la investigación de Lucía Vicente y Helena Matute, de la universidad de Deusto, que advierte sobre aspectos nuevos a considerar al regular el uso de IA

Lectura 4 minutos
6 de octubre 2023

Los resultados de esta investigación son muy locos. Perdonen el término tan coloquial, pero es que hasta ahora existía una preocupación clara al utilizar la Inteligencia Artificial (IA) para realizar cribados o diagnósticos por los sesgos que podrían tener sus decisiones. Sesgos que, por otro lado, venían de algoritmos humanos erróneos, que la inteligencia artificial hereda y amplifica. Este problema en la aplicación de la IA es conocido, investigado, demostrado y al que se buscan soluciones. 

Sin embargo, lo que no se sabía era que el uso de esta tecnología puede llevar al sanitario que la utiliza a heredar esos sesgos en las decisiones que tome de manera libre, ya sin la asistencia de la IA. 

¿No me digan que no es loco

Las psicólogas Lucía Vicente y Helena Matute, de la Universidad de Deusto (Bilbao), han realizado esta investigación que demuestra que las personas podemos heredar sesgos de la IA y sus resultados han sido publicada en la revista Nature

Las autoras partieron de la hipótesis de que las personas que realizan el diagnóstico de una enfermedad (que en la investigación fue inventada) asistidas por un sistema de IA que está sesgado reproducirán el sesgo del modelo en sus propias decisiones, incluso en un contexto en el que ya no estén asistidas por la IA. 

Según recoge el paper, la investigación partió de tres experimentos donde los participantes, estudiantes de psicología, completaron una tarea de clasificación de temática médica con y sin la ayuda de un sistema de inteligencia artificial sesgado. En primer lugar, pudo verse cómo las recomendaciones sesgadas de la IA influyeron en las decisiones de los participantes, lo cual puede ser normal. Ahora, cuando esos participantes, asistidos por la IA, pasaron a realizar la tarea sin ayuda, cometieron los mismos errores que había cometido la IA durante la fase anterior.

Por lo tanto, en sus respuestas los participantes imitaron el sesgo de la IA, incluso cuando la IA ya no hacía sugerencias. Estos resultados, reconocen las autoras, proporcionan evidencia de que el sesgo de la IA se hereda y aplica en decisiones que se toman sin ningún apoyo tecnológico.  

Íñigo de Miguel Beriain, investigador de la UPV/EHU, doctor en Derecho y Filosofía y miembro del Comité de Bioética de España, pone en contexto la investigación de Lucía Vicente y Helena Matute, reconoce su enorme importancia y adelanta sus consecuencias.

«Lo que no sabíamos y nos muestra esta investigación es que los humanos que trabajaran en contacto con la IA acaban adquiriendo el sesgo. Esto es, incorporándolo a sus propios procesamientos mentales, lo que condiciona sus decisiones incluso sin presencia del sistema y sus recomendaciones. Esto es particularmente preocupante, porque supone tanto como pensar que quienes apliquen el sistema en sus tareas habituales acabarán extendiendo el sesgo. Más aún, serán muy poco proclives a detectarlo. Más bien, tenderán a adecuar su comportamiento al de la IA. Más, probablemente, cuanto más confíen en la utilidad y veracidad de la IA»

¿Qué podemos hacer?, cabría preguntarse. Y De Miguel adelanta una respuesta: «De ser así [lo que muestra la investigación], es obvio que no detectaremos los sesgos a través de un mecanismo de supervisión parecido al de la notificación de efectos secundarios, porque para eso hace falta que quienes han de aplicar el sistema tengan conciencia del sesgo. Si no es así, será complicado detectarlo antes de que haya producido suficientes problemas como para que resulten apreciables por su volumen. Por tanto, lo que necesitaremos serán formas de supervisión que incorporen como variable la influencia que el uso de la IA puede tener sobre quienes –supuestamente- habrían de detectar sus fallos. Es necesario, en suma, introducir los aspectos psicológicos de la relación entre IA y humanos en la supervisión».

Fuente: Diariomedico.com

Path Copy Created with Sketch.
X