Àgora

Governar els algoritmes

Necessitem actuar en el desenvolupament de la intel·ligència artificial i ho hem de fer abans que tingui un impacte més gran sobre les nostres vides

3
Es llegeix en minuts
teclado

teclado

La intel·ligència artificial ja condiciona el nostre dia a dia: què llegim, què veiem, què comprem o amb qui ens relacionem. El que potser és menys conegut és que aquesta tecnologia també comença a condicionar aspectes clau de la nostra vida com les nostres oportunitats laborals o l’accés a prestacions socials.

L’estiu passat vam tenir un exemple al Regne Unit quan el Govern de Boris Johnson va utilitzar un algoritme per substituir les proves d’accés a la universitat que no s’havien pogut realitzar per la Covid. L’algoritme ponderava el resultat de l’alumne no només partint de l’avaluació dels seus professors, sinó que incloïa altres factors com l’historial de tot el centre educatiu. Això va perjudicar greument els millors alumnes de les escoles situades en entorns més modestos, fins al punt que algunes notes d’accés es van veure reduïdes en un 40%.

Un altre exemple: el Govern d’Holanda va aplicar un sistema d’intel·ligència artificial que rastrejava possibles casos de frau entre beneficiaris d’ajudes socials a barris desfavorits. L’algoritme i les dades van identificar erròniament com a infractores persones que senzillament complien el mateix perfil social que els infractors reals, incloent-les durant dos anys en unes bases de dades que podien consultar els governs locals que així ho desitgessin.

Són dos casos que mostren tot allò que no s’ha de fer. No es poden utilitzar algoritmes sense supervisió humana per prendre decisions automatitzades que afecten les persones i, per descomptat, tampoc es poden programar algoritmes que agreugin les desigualtats existents pels biaixos en la programació i en les dades que els alimenten.

L’aspecte dels biaixos és fonamental. Com diu la fundadora de la Lliga per a la justícia algorítmica, Joy Buolamwini, «el passat habita en els nostres algoritmes»: la intel·ligència artificial es basa en prediccions sobre el futur basades en dades del passat. Dades que contenen biaixos per aspectes com el gènere o el nivell socioeconòmic, i a les quals a més cal afegir el biaix que puguin transmetre uns programadors que acostumen a ser homes blancs, joves i de classe mitjana.

¿Estem disposats que el futur de la nostra societat es construeixi com una mera imatge de les desigualtats del passat? Necessitem actuar en el desenvolupament d’aquesta tecnologia i ho hem de fer abans que tingui un impacte més gran sobre les nostres vides.

Això és el que estem fent a Barcelona i per aquesta raó hem aprovat l’Estratègia municipal d’algoritmes i dades per a l’impuls ètic de la intel·ligència artificial. Ho hem fet en un moment clau. La Comissió Europea acaba de presentar la seva proposta de regulació de la intel·ligència artificial. Ho fa en un context com l’actual: enmig d’una pandèmia que ens ha fet posar el focus sobre molts aspectes relatius a les llibertats i els drets individuals i col·lectius, a l’administració s’ha d’acostar més que mai a la ciutadania. La legislació europea, d’aquesta manera, haurà de reflectir com volem que siguin les nostres societats en el futur. I Barcelona vol formar part d’aquest debat.

La nostra estratègia és pionera. Som una de les primeres ciutats en tenir un full de ruta sobre com implementar la intel·ligència artificial en la seva organització. Cada algoritme amb què treballi l’Ajuntament de Barcelona ha de garantir principis com, per exemple, la transparència, la no-discriminació o la privacitat de les dades. Ens afegim a ciutats com Amsterdam, Nova York, Hèlsinki, Toronto i Seattle en la construcció d’un model d’intel·ligència artificial i tecnologies emergents basat en els drets humans.

Notícies relacionades

Des de Barcelona treballem amb aquest objectiu, però també volem anar un pas més enllà. Volem passar d’una Administració que respon a les sol·licituds de la ciutadania a una Administració que s’anticipa i proposa solucions personalitzades. I és que a Europa, un 30% dels potencials receptors d’ajudes públiques no les sol·liciten perquè desconeixen que existeixen. Es tracta de passar d’una Administració reactiva a una de proactiva.

La regulació de la intel·ligència artificial és un repte i una oportunitat a la vegada per les administracions públiques. El repte de posar límits al poder de l’algoritme, de governar-lo, i l’oportunitat d’aconseguir que els serveis públics siguin més eficaços i inclusius.