- Inteligencia ArtificialTecnología
- 30 de abril de 2024
- Sin Comentarios
- 7 minutos de lectura
Los sesgos de la inteligencia artificial pueden pasar a las personas
Los sesgos de la inteligencia artificial pueden pasar a las personas
La información sesgada proporcionada por una inteligencia artificial puede ejercer un impacto negativo perdurable
Es conocido que los algoritmos a menudo reflejan los errores y prejuicios de sus creadores, pero también puede ocurrir lo contrario: que personas aconsejadas por una IA sesgada adapten sus decisiones a lo que recomienda el agente artificial, incluso cuando ya no cuentan con su asistencia. Así lo revelan experimentos realizados en la Universidad de Deusto.
Una investigación llevada a cabo por las psicólogas Lucía Vicente y Helena Matute de la Universidad de Deusto, en Bilbao, evidencia que las personas podemos heredar sesgos de la inteligencia artificial (IA). El estudio se publica en la revista de acceso abierto Scientific Reports.
Los impresionantes resultados logrados por esta nueva tecnologías reflejan su alta fiabilidad y se han hecho muy populares. Sin embargo, los algoritmos de la IA también pueden estar sesgados, cometer errores sistemáticos.
Estos programas son entrenados con datos que son producto de decisiones humanas, y si contienen sesgos, los modelos de inteligencia artificial pueden aprenderlos y reproducirlos. De hecho, existen ya numerosas pruebas de que, efectivamente, esta hereda y amplifica los sesgos humanos.
Esa situación era conocida, pero ahora el nuevo estudio muestra que también puede ocurrir el efecto contrario: las personas podríamos heredar sesgos de la IA, con lo que corremos el riesgo de entrar en un bucle bastante peligroso.
Para realizar su investigación, las autoras plantearon una serie de experimentos donde los voluntarios tenían que realizar una tarea de diagnóstico médico mediante una matriz con celdas de dos colores, oscuro y claro, con la que se simulaban muestras de tejidos humanos extraídas a pacientes afectados por un síndrome ficticio.
Positivo o negativo a la enfermedad
Así crearon un criterio de clasificación, de forma que, a mayor proporción de celdas oscuras, significaba que la muestra de tejido estaba afectada por la enfermedad, era un positivo; mientras que, si había una mayor proporción de células claras, era un negativo. Los participantes debían elegir entre esas dos opciones.
Ejemplos de pantallas de uno de los experimentos. / Vicente, L, & Matute, H. /Scientific Reports
La mitad de los voluntarios constituyeron un grupo de control que no contó con ninguna asistencia de la IA. Por su parte, la otra mitad realizó la tarea con las recomendaciones de una inteligencia artificial con un error sistemático. Siempre se equivocaba para una muestra de tejido con una configuración de colores particular: 40 % de células oscuras y 60 % de células claras.
Para estas imágenes, la recomendación del agente artificial contradecía el criterio de clasificación, indicando que era positivo cuando, atendiendo a las proporciones de los dos colores, sería clasificada como negativo.
“Los participantes reprodujeron este error sistemático de la IA, aunque era muy sencillo discriminar las imágenes, como demostró el grupo control, que no tenía asistencia de esa inteligencia artificial sesgada y apenas cometía errores en la tarea”, explican a SINC Lucía Vicente y Helena Matute.
.
Mismo error sin la IA
Además, el resultado más relevante fue que, en una segunda fase en la que la IA ya no estaba presente, los voluntarios continuaron cometiendo su mismo error sistemático cuando pasaron a realizar la tarea de diagnóstico sin su asistencia.
Estas personas reprodujeron el sesgo en un contexto en el que ya no estaba presente la inteligencia artificial, evidenciando así un sesgo heredado. Esto no ocurría en los participantes del grupo de control, que habían realizado desde el primer momento la tarea sin ayuda.
Las autoras concluyen: “Hemos encontrado que es posible que personas aconsejadas por una IA sesgada acaben adaptando sus decisiones a los resultados de este agente artificial, y aún más importante, que esa influencia puede perdurar incluso cuando las personas pasan a un contexto en el que ya no tienen esa asistencia”.
Vemos que es posible que personas aconsejadas por una IA sesgada acaben adaptando sus decisiones a los resultados de este agente artificial, y aún más importante, que esa influencia puede perdurar cuando ya no tienen esa asistencia
Lucía Vicente y Helena Matute (Un. de Deusto)
Para las autoras, este hallazgo señala la necesidad de más investigación psicológica y multidisciplinar sobre la interacción entre la inteligencia artificial y los humanos.
También consideran necesaria una regulación basada en evidencia que garantice una IA ética y fiable, que no tenga en cuenta solo los aspectos técnicos, sino también los aspectos psicológicos de la relación entre esta tecnología y los humanos.
Referencia:
Vicente, L, & Matute, H. “Humans inherit artificial intelligence biases”. Scientific Reports, 2023