Entrevista

Frank Pasquale: «Les plataformes tracten els treballadors com a dades, no com a persones»

Parlem amb l’acadèmic i autor nord-americà sobre Intel·ligència Artificial (IA), algoritmes, robots assassins i l’automatització del mercat laboral

Frank Pasquale: «Les plataformes tracten els treballadors com a dades, no com a persones»

Álvaro Monge (EL PERIÓDICO)

7
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en Xarxes, algoritmes i la intersecció entre política i tecnologia.

Ubicada/t a Barcelona

ver +

La Intel·ligència Artificial (IA) ja forma part de les nostres vides i ens afecta en formes que no imaginem. Frank Pasquale és professor de la Brooklyn Law School, membre del Comitè Consultiu Nacional d’Intel·ligència Artificial dels Estats Units i expert en algoritmes que fa dècades que investiga aquests sistemes.

Autor dels llibres ‘The Black Box Society’ i ‘New Laws of Robotics’, l’acadèmic va tancar aquest dimarts el cicle de debats sobre el futur tecnològic en una conferència organitzada per l’Observatori Social de Fundació «la Caixa» al CaixaForum Macaya.

L’administració pública utilitza algoritmes per determinar subsidis i les empreses financeres per establir interessos. ¿Estan aquests sistemes amplificant les discriminacions sobre els més pobres?

Sí, existeix en moltes ocasions una profunda amplificació de la discriminació. Hi ha evidències que en el sector públic l’automatització de certs procediments ha tingut un impacte negatiu. El sector privat desperta encara més preocupacions, perquè les empreses poden saber tantes coses privades de la gent, com la seva salut o el seu salari, i això pot causar discriminacions.

Els algoritmes extreuen conclusions a partir de dades sobre comportaments passats. Això fa que si, per exemple, les classes amb pitjors condicions socioeconòmiques tendeixen estadísticament a tenir més problemes de salut, l’IA que utilitzen les assegurances mèdiques els penalitzi. ¿Com hi pot haver així progrés?

Exactament. El problema de molts algoritmes és que repeteixen els patrons del passat i els projecten al futur. I també ho és que aquests sistemes es presenten com a mètodes científics, quan realment són històrics: es basen tan profundament en el coneixement passat que el repeteixen. Aquesta penalització de certs col·lectius és una pràctica comuna en la policia, ja que utilitzen perfils racials que tenen biaixos de classe. També es veu en el món de les finances. Es parla molt de la inclusió, però es pot incloure certes persones de forma depredadora o subordinada. Un banc pot detectar els que paguen multes pels seus retards en els pagaments i això perjudica directament la persona a la qual s’apunta.

Un enginyer de Google ha dit aquesta setmana que l’IA de llenguatge de la companyia estava experimentant «nous sentiments». ¿És versemblant que un sistema informàtic comenci a tenir consciència?

Fa temps que segueixo aquest debat i és una cosa que no pot ser científicament provat, es tracta d’una percepció humana. El problema és que la gent que creu que l’IA pot tenir sentiments i altres atributs humans estan confonent com a evidències el que és una percepció. El sistema de Google no és conscient, però està utilitzant totes les paraules que pot per emular que tenen consciència. Es tracta d’un fingiment d’emocions humanes més que emocions reals per si mateix.

El 2015 vas publicar ‘The Black Box Society’. ¿Hi han hagut millores en els controls del funcionament dels algoritmes des d’aleshores?

El món pot dividir-se en tres blocs. A Europa el concepte darrere del Reglament General de Protecció de Dades (GDPR, en anglès) és extremament fort i savi, però que el compliment de la llei ha sigut lent i no gaire efectiu. Als Estats Units hi ha alguns esforços per donar responsabilitat a l’algoritme. I a la Xina hi ha molts esforços per regular les grans tecnològiques però aquesta regulació serveix per preservar el poder i el control del govern, no per protegir la privacitat.

¿Com valora la regulació de l’IA que la Unió Europea aprovarà aquest estiu?

Crec que és una llei sàvia que mira al futur al catalogar els sistemes d’IA segons el seu risc. Tot i així, crec que no s’estan posant prou diners a garantir el seu compliment i que s’hauria d’avaluar el risc d’aquests sistemes abans de la seva creació per donar llicències, no una vegada ja s’han aplicat.

Tanmateix, aquesta llei exclou l’ús militar de l’IA que ja s’està desplegant a les fronteres europees. ¿Es corre el risc de posar en l’objectiu grups vulnerables com els migrants?

Sí, utilitzar aquests sistemes amb els migrants o per distingir refugiats legítims comporta molts grans riscos i això hauria d’incloure’s en la llei que prepara la UE. Hi ha tantes evidències de discriminació a les fronteres que és difícil imaginar que l’IA pugui fer portar a càrrec aquesta tasca sense supervisió.

Espanya prepara l’ús de reconeixement facial a la seva frontera amb el Marroc ¿Quins perills comporta aquesta tecnologia?

Hi ha tres grans perills. El primer és que les dades no exactes ajudin a normalitzar la repressió, com quan els sistemes no reconeixen les dones després que s’hagin tallat els cabells. El segon és la discriminació, com quan identifiquen de forma errònia o no reconeixen les pells fosques o persones trans. I el tercer té a veure amb l’alienació que produeix que et puguin identificar vagis on vagis i el poder polític que això suposa. La gent mereix tenir privacitat també en públic, però ja hi ha aerolínies que gestionen l’embarcació identificant el passatger amb reconeixement facial. I tot i així, no sembla ni l’opció més eficient.

Rússia hauria utilitzat drons intel·ligents a Ucraïna. ¿Fa falta una prohibició total de les armes autònomes o una regulació que permeti el seu ús defensiu?

Hauria d’arribar-se a una regulació internacional per fer que l’ús d’aquestes armes sigui segur. Tanmateix, la invasió russa d’Ucraïna ha posat en relleu el temor que, en un context de guerra, l’excés de regulació de l’IA militar pugui perjudicar els països que compleixin les normes i donar avantatge a qui no ho faci.

¿Com hi pot haver un acord internacional si hi ha països que, com els EUA, el bloquegen perquè estan invertint en el desenvolupament d’IA militar?

El problema és que la UE no pot obtenir un compromís de Rússia que no invertirà en aquest armament, així com els EUA no poden obtenir un compromís creïble que la Xina farà el mateix. Aquesta falta de confiança opera en les dues direccions i explica que la cursa armamentística ja estigui en marxa. L’òptim seria aconseguir un consens com el que s’ha establert en contra de la proliferació de l’armament nuclear.

I tot i així veiem els EUA i la Xina competint en una carrera per l’hegemonia de l’IA...

Les grans potències han d’acordar una desescalada i de deixar d’invertir en armes de destrucció massiva per lidiar amb el canvi climàtic, la inflació, l’escassetat i l’Estat del benestar. No és només terrorífic pensar en el mal que els robots assassins poden causar, sinó en els recursos que absorbeixen que podrien anar a altres coses.

La robotització també està afectant el món laboral. ¿Han vingut a robar-nos els llocs de treball o a complementar-nos?

No causaran un futur sense llocs de treball, sinó que canviaran el tipus de treball. Això pot suposar grans oportunitats laborals. Crec que, més que preocupar-nos en si els robots acabaran amb la feina de moltes persones, la clau és centrar-nos en com fer la transició cap a una economia més productiva.

L’automatització dels llocs de treball està portant a un creixent impacte sobre els treballadors. La setmana passada, el Govern espanyol va presentar una mesura per ajudar els empleats a reclamar una transparència més gran d’aquests algoritmes.

Sí, és un canvi majúscul en el qual hi ha una vigilància més gran i això és d’una gran preocupació. El primer pas és donar més poder als treballadors. El segon ha de ser apoderar els sindicats i grups de la societat civil que ajudin els treballadors a entendre millor el funcionament d’aquests sistemes.

Notícies relacionades

¿Està el capitalisme de plataformes fent que acceptem un model laboral que, en nom de la innovació, tracta els treballadors com màquines?

Exacte. La lògica de l’economia de plataformes és tractar els treballadors com fluxos de dades, no com a persones, sinó com a entitats que maximitzen els beneficis per a l’empresa fent el volum de treball més gran de la manera més barata i en el menor temps possible. Una manera de fer-ho és entrenar-los perquè actuïn de forma més sensible per als algoritmes, hi ha molts exemples de manipulació. Estem veient com el model de negoci més avançat i modern suposa una tornada al treball a preu fet del segle XVIII. Cal qüestionar afirmacions com la ‘flexibilitat laboral’ i assegurar-se que hi hagi dignitat en el treball i autonomia per al treballador.