ASSUMPTES PROPIS Opinió Basada en interpretacions i judicis de l’autor sobre fets, dades i esdeveniments.

Ricardo Baeza-Yates, expert en IA responsable: «Si ens extingim serà per la nostra estupidesa»

3
Es llegeix en minuts
Ricardo Baeza-Yates, expert en IA responsable: «Si ens extingim serà per la nostra estupidesa»

Archivo

Aquests últims mesos els cuiners de la intel·ligència artificial (IA) firmen manifestos en què demanen frenar la cocció a risc que ens mati a tots. ¿Xocant, oi? El xilè Ricardo Baeza-Yates, investigador de l’Institute for Experiential AI de la Northeastern University, a Silicon Valley, i un dels tres membres del Consell Assessor d’IA del Govern d’Espanya que van dimitir al març per l’acord de col·laboració amb Abu Dhabi per crear un centre d’intel·ligència artificial a Granada –«no volia legitimar una cosa que mai es va discutir»–, aclareix dubtes.  

¿No firma manifestos?

Aquest últim, no. No crec que la IA ens destrueixi.

Sam Altman, ment empresarial d’OpenAI, i molts d’altres sí.

Penso en diverses raons. Una és que sigui una maniobra de distracció. Si posen sobre la taula riscos futurs, no prestem atenció al que està passant ara, que és molt greu, i poden continuar fent la seva. No volen regulació. També és possible que alguns signants tinguin por realment de perdre el control, com Geoffrey Hinton, pioner del ‘deep learning’ (aprenentatge profund).

¿Vostè, què diu?

Si ens extingim, no serà per la IA, sinó per l’estupidesa humana. Una cosa és que un assistent virtual et digui que t’exterminarà i una altra, que tingui la possibilitat d’accionar la humanitat perquè això passi. Tot això planteja una pregunta filosòfica: ¿poden fer alguna cosa millor que nosaltres mateixos? 

¿Poden?

Si aprenen de nosaltres, la resposta és no. En els escacs, que la màquina supera l’humà, el domini del problema és tancat i les regles, conegudes. Però no podem escriure el context complet de qualsevol problema. 

Llavors, ¿què l’alarma exactament?

Contestar aquesta pregunta és part del problema. Tot està integrat.

Disculpi.

Em preocupa l’ús indiscriminat de la IA i que l’objectiu principal siguin els diners i no l’impacte social. Hi ha una base de dades que registra més de 2.000 exemples de mal ús que afecta milions de persones.

Dos mil i estem en les albors.

És com una bomba de dispersió. D’altra banda, s’està configurant una concepció de l’ésser humà que procedeix d’una distribució de probabilitats matemàtiques.

Un home o una dona mitjana.

I pensar que som una mitjana és un problema. Normalitzem les persones en el biaix d’exposició. La Viquipèdia està disponible en 300 idiomes, quan n’hi ha 7.000 que són vius. No es tenen en compte els diferents. Homogeneïtzem contingut, maneres de comunicar-nos, valors. Estem perdent coneixement. I això també té repercussió en beques, préstecs, assegurances, l’aplicació de la justícia. Sense comptar amb el fet que el 40% de la població no està connectada a internet. També em preocupa molt que puguin augmentar els problemes de salut mental.

¿En quin sentit?

L’ús dels assistents virtuals com si fossin persones. A la Xina i els EUA hi ha gent que parla amb els seus éssers estimats morts. [Un ‘deadbot’] és només un programa que entén el que dius i, utilitzant probabilitats de contextos que troben a la web, contesten com lloros, però les persones comencen a creure que són humans.

Doncs ja em dirà... No morirem, però ens desdibuixarem.

És crucial una regulació estricta. Al contrari del que diuen alguns, les bones regulacions generen més innovació. S’han de traçar línies vermelles. L’ACM –la xarxa d’informàtics, investigadors i professionals més gran del món– va publicar els nou principis de la IA responsable. Jo en vaig promoure un –legitimitat i competència– que demana demostrar que el benefici sempre sigui superior al mal, i certificar que es té competència en el domini del problema.

¿Què hi ha de la destrucció d’ocupació massiva?

No em preocuparia si tothom rebés un salari universal. La meva utopia seria un món on la gent es desenvolupés en allò li agradés i les màquines fessin la resta.

Notícies relacionades

¿I si tot surt malament? ¿I si l’estupidesa guanya la partida?

No seria abans de 20 o 30 anys. Però crec, com Peter Drucker, que la millor manera de predir el futur és crear-lo. Amb educació, consciència, maneig dels biaixos i una perspectiva científica i no (gairebé) religiosa de la IA.