Conferència tecnològica

Digitalització i algoritmes: Artificial, sí; intel·ligència, no tant

Els algoritmes han de ser auditats per pal·liar els biaixos que repliquen les discriminacions de la vida real, segons l’experta Gemma Galdón

A1-147288815.jpg

A1-147288815.jpg / JORDI COTRINA (EPC_EXTERNAS)

2
Es llegeix en minuts
Agustí Sala
Agustí Sala

Redactor en cap d'Economia

Especialista en Economia

Ubicada/t a Barcelona

ver +

«Les millors ments les tenim dedicades a vendre sabates». I tot això gràcies al ‘big data’, la intel·ligència artificial i els algoritmes perquè l’objectiu s’ha centrat en el negoci amb una funció molt concreta per a les nostres dades: «si et conec millor et podré vendre millor». Aquesta és una de les afirmacions fetes per Gemma Galdón, investigadora, analista de polítiques públiques i cofundadora d’Eticas Research & Consultoria durant la conferència sobre «Digitalització. Quan parlem de transicions ens referim a un present de canvi», dins d’un cicle coorganitzat per CCOO de Catalunya, EL PERIÓDICO i l’oficina a Barcelona del Club de Roma.

Segons el parer d’aquesta doctora en vigilància, seguretat i polítiques urbanes per la Universitat Autònoma de Barcelona (UAB), les repercussions de la tecnologia i els seus avenços s’entenen més des de les ciències socials que des de l’enginyeria. Vivim envoltats d’algoritmes que, com que es basen en patrons del passat, solen replicar les discriminacions i errors que es produeixen a la societat, ja sigui per edat, sexe o altres variables. Segons aquesta analista, malgrat l’optimisme des d’alguns àmbits, com que amb la intel·ligència artificial s’introdueixen dades amb patrons del passat, «el cotxe autònom no podrà ser», ja que no poden preveure les coses que no ha passat, tot i que sí que creu que hi haurà vehicles «altament assistits».

Els biaixos dels algoritmes fan que, per exemple, si les dones han sol·licitat històricament menys crèdits, les probabilitats que se’ls concedeixin partint de l’anàlisi d’aquests sistemes són més baixes, explica. Una situació semblant passa amb el bo social destinat a consumidors elèctrics vulnerables. Al final resulta que moltes persones que hi tindrien dret són descartades per desviacions incloses en l’algoritme que selecciona els candidats. O quan es produeix un accident com el de l’AVE a Galícia el 2013: «A falta de sistemes per jutjar els algoritmes, la responsabilitat recau sobre el treballador quan no la té tota», alerta. Perquè «les dinàmiques de discriminació històrica del món real es repliquen si no es modifiquen a través dels patrons dels algoritmes», afirma Galdón.

Notícies relacionades

Una de les especialitats d’aquesta experta, precisament, és corregir aquestes tendències perquè «un algoritme és auditable» i s’hi poden incorporar dades i variables per evitar-les. Perquè, recorda, la política en tot aquest tipus de mesures està desapareguda i està tot en mans d’empreses privades. La seva consultoria treballa per a la Comissió Europea, l’Agència Europea de Drets Fonamentals i l’Open Society Foundation, entre d’altres.

A la conferència hi van assistir el president de l’oficina a Barcelona del Club de Roma, Jaume Lanaspa i el secretari general de CCOO a Catalunya, Javier Pacheco, entre d’altres.