- Intel·ligència ArtificialTecnologia
- 30 d'abril de 2024
- Sense comentaris
- 6 temps de lectura
Els biaixos de la intel·ligència artificial poden passar a les persones
Els biaixos de la intel·ligència artificial poden passar a les persones
La informació esbiaixada proporcionada per una intel·ligència artificial pot exercir un impacte negatiu perdurable
És conegut que els algorismes sovint reflecteixen els errors i prejudicis dels seus creadors, però també pot passar el contrari: que persones aconsellades per una IA esbiaixada adaptin les seves decisions al que recomana l’agent artificial, fins i tot quan ja no compten amb la seva assistència. Així ho revelen experiments realitzats a la Universitat de Deusto.
Una recerca duta a terme per les psicòlogues Lucía Vicente i Helena Matute de la Universitat de Deusto, a Bilbao, evidència que les persones podem heretar biaixos de la intel·ligència artificial (IA). L’estudi es publica en la revista d’accés obert Scientific Reports.
Els impressionants resultats reeixits per aquesta nova tecnologies reflecteixen la seva alta fiabilitat i s’han fet molt populars. Malgrat això, els algorismes de la IA també poden estar esbiaixats, cometre errors sistemàtics.
Aquests programes són entrenats amb dades que són producte de decisions humanes, i si contenen biaixos, els models d’intel·ligència artificial poden aprendre’ls i reproduir-los. De fet, existeixen ja nombroses proves que, efectivament, aquesta hereta i amplifica els biaixos humans.
Aquesta situació era coneguda, però ara el nou estudi mostra que també pot passar l’efecte contrari: les persones podríem heretar biaixos de la IA, amb el que correm el risc d’entrar en un bucle força perillós.
Per a realitzar la seva recerca, les autores van plantejar una sèrie d’experiments on els voluntaris havien de fer una tasca de diagnòstic mèdic mitjançant una matriu amb cel·les de dos colors, fosc i clar, amb la qual se simulaven mostres de teixits humans extretes a pacients afectats per una síndrome fictícia.
Positiu o negatiu a la malaltia
Així van crear un criteri de classificació, de manera que, a més gran proporció de cel·les fosques, significava que la mostra de teixit estava afectada per la malaltia, era un positiu; mentre que, si hi havia una proporció més gran de cèl·lules clares, era un negatiu. Els participants havien de triar entre aquestes dues opcions.
La meitat dels voluntaris van constituir un grup de control que no va comptar amb cap assistència de la IA. Per part seva, l’altra meitat va fer la tasca amb les recomanacions d’una intel·ligència artificial amb un error sistemàtic. Sempre s’equivocava per a una mostra de teixit amb una configuració de colors particular: 40% de cèl·lules fosques i 60% de cèl·lules clares.
Per a aquestes imatges, la recomanació de l’agent artificial contradeia el criteri de classificació, indicant que era positiu quan, ateses les proporcions dels dos colors, seria classificada com a negatiu.
“Els participants van reproduir aquest error sistemàtic de la IA, encara que era molt senzill discriminar les imatges, com va demostrar el grup control, que no tenia assistència d’aquesta intel·ligència artificial esbiaixada i a penes cometia errors en la tasca”, expliquen a SINC Lucía Vicente i Helena Matute.
Mateix error sense la IA
A més, el resultat més rellevant va ser que, en una segona fase en la qual la IA ja no era present, els voluntaris van continuar cometent el seu mateix error sistemàtic quan van passar a fer la tasca de diagnòstic sense la seva assistència.
Aquestes persones van reproduir el biaix en un context en el qual ja no era present la intel·ligència artificial, evidenciant així un biaix heretat. Això no passava en els participants del grup de control, que havien realitzat des del primer moment la tasca sense ajuda.
Les autores conclouen: “Hem trobat que és possible que persones aconsellades per una IA esbiaixada acabin adaptant les seves decisions als resultats d’aquest agent artificial, i encara més important, que aquesta influència pot perdurar fins i tot quan les persones passen a un context en el qual ja no tenen aquesta assistència”.
Veiem que és possible que persones aconsellades per una IA esbiaixada acabin adaptant les seves decisions als resultats d’aquest agent artificial, i encara més important, que aquesta influència pot perdurar quan ja no tenen aquesta assistència
Lucía Vicente i Helena Matute (Un. de Deusto)
Aquests resultats mostren, per tant, que informació esbiaixada proporcionada per una intel·ligència artificial pot exercir un impacte negatiu perdurable en les decisions de les persones. Per a les autores, aquesta troballa assenyala la necessitat de més recerca psicològica i multidisciplinària sobre la interacció entre la intel·ligència artificial i els humans.
També consideren necessària una regulació basada en evidència que garanteixi una IA ètica i fiable, que no tingui en compte només els aspectes tècnics, sinó també els aspectes psicològics de la relació entre aquesta tecnologia i els humans.
Referència:
Vicente, L, & Matute, H. “Humans inherit artificial intelligence biases”. Scientific Reports, 2023