Secció recomanada per

Entrevista

Gary Marcus: «La intel·ligència artificial serà utilitzada per interferir en les eleccions»

Gary Marcus: «La intel·ligència artificial serà utilitzada per interferir en les eleccions»

Ricard Cugat

9
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

El 16 de maig, mig any després que esclatés el fenomen de ChatGPT, el Congrés dels Estats Unitsva celebrar una sessió per abordar una futura regulació de la intel·ligència artificial (IA). L’acte va reunir líders de la indústria com Sam Altman, fundador d’OpenAI, però també un dels més prominents crítics amb l’ús d’aquesta tecnologia, el neurocientífic cognitiu Gary Marcus.

El nord-americà, de 53 anys, professor emèrit de la Universitat de Nova York, és una de les personalitats més influents en el camp de la IA. Després de més de dues dècades d’investigació, ha publicat obres clau i desenes d’estudis científics, i va fundar dues empreses que va vendre a Uber.

Aquest dilluns, Marcus ha assistit al Parlament de Catalunya per participar en la Conferència EPTA, una trobada per debatre les oportunitats, reptes i riscos de la IA i com abordar-les des de la política pública. EL PERIÓDICO hi ha pogut parlar.

L’anomenem IA, ¿però és realment intel·ligència?

Depèn de com es defineixi la intel·ligència. Jo diria que consisteix a ser capaç de resoldre molts tipus diferents de problemes amb flexibilitat. Les màquines són raonablement bones buscant informació, poden jugar molt bé als escacs i fer matemàtiques millor que les persones. Però no entenen realment com funciona el món, no són gaire lògiques i quan s’enfronten a una cosa nova sovint s’enfonsen. Estan molt limitades.

L’any passat va escriure un paper en el qual deia que la IA està estancada. ¿Per què no podem confiar en els grans models de llenguatge com ChatGPT?

Perquè no tenen la capacitat de comprovar fets. Un d’aquests sistemes va dir que Elon Musk va morir en un accident de cotxe. Per a un humà és fàcil de demostrar que això no és cert, perquè és cada dia a Twitter. No poden raonar ni pensar, només creen aquesta il·lusió perquè reprodueixen frases que una altra gent ha dit.

«ChatGPT no pot raonar ni pensar, només crea aquesta il·lusió perquè reprodueix frases d’una altra gent»

Com els lloros...

És una comparació acceptable, però no perfecta. Els lloros poden aprendre una mica de llenguatge i comparar-ho amb els objectes del món que els envolta, així com resoldre certs problemes que mai han vist abans. Els sistemes, no.

ChatGPT i d’altres poden respondre informació errònia com si fos certa. ¿S’agilitzarà la desinformació a gran escala?

La desinformació és l’amenaça més gran que planteja la IA. Aquests sistemes freqüentment s’equivoquen, però mai dubten i responen amb absoluta confiança. Si no saben alguna cosa, se la inventen. El cas més famós és quan es va inventar que un professor de Dret havia comès assetjament sexual i es va citar com a prova un article a ‘The Washington Post’ que no existia. Així es pot calumniar, difamar i destruir la reputació d’algú de forma accidental.

D’altra banda, hi ha la desinformació deliberada. Quan vaig comparèixer davant del Congrés vaig demanar al sistema que s’inventés una història de com els senadors dels EUA amb qui em reunia eren part d’una conspiració amb extraterrestres per augmentar el preu del combustible i que la humanitat mai explori l’univers. Va crear una narrativa completa, amb cites inventades de Musk i d’un professor de Yale que tampoc existia. Als desinformadors no els importa si les seves notícies falses no són perfectes. Si només un 20% se les creu, això pot donar una força enorme als que vulguin pertorbar unes eleccions.

Així, suposa una amenaça per als processos democràtics

La meva preocupació més immediata és què passarà amb les gairebé 70 eleccions que hi ha el 2024. És molt probable que es creïn vídeos falsos de Joe Biden caient per les escales o dient una cosa tonta per mirar de manipular les eleccions. Això passarà en moltes o en totes. Utilitzar la IA no requereix gaire experiència, així que la utilitzaran per pertorbar les eleccions.

Al generar informació falsa però creïble els models com ChatGPT estan intoxicant la informació que hi ha als cercadors web. ¿Anirà a més?

Aquest és un problema immens. El que hauria de preocupar Google no és el seu futur com a motor de cerca, sinó que la qualitat d’internet disminueixi. I això ja està passant per múltiples raons. Una és que ChatGPT, Bard i d’altres sovint s’inventen coses i aquestes falsedats es filtren i incorporen en altres sistemes. També hi ha gent utilitzant la IA per crear llibres i guies per guanyar diners. Cory Doctorow ha descrit aquesta pèrdua de qualitat de la informació com a ‘enshittification’. Aquest tipus d’escombraries estan contaminant la xarxa, i només anirà a més.

¿S’ha exagerat el potencial de ChatGPT?

Absolutament. Va ser una moda, el seu ús es va catapultar, però ara ha disminuït i algunes empreses fins i tot l’han prohibit. A més, la realitat és que no fan ni de lluny tants diners com es creia. Es pensava que les recerques basades en IA serien el gran motor econòmic, però la gent s’està adonant que en realitat no funciona tan bé perquè s’inventa un munt de coses.

Les companyies han llançat a la societat productes que cometen errors. ¿Quins incentius tenen per desenvolupar sistemes en què puguem confiar?

Per això necessitem que el Govern hi intervingui. Les empreses s’han adonat que bàsicament tenen el poder de llançar qualsevol cosa, sense importar-ne el risc. Això és perillós. No tenim cap poder per evitar que ho facin, a part d’algunes demandes a posteriori. És la raó que em va empènyer a traslladar la meva carrera de la investigació a la política, a educar els governs sobre què podem fer. Si vols desplegar alguna cosa a 100 milions de persones, abans has de demostrar que els beneficis superen els riscos.

Les empreses llancen qualsevol cosa al mercat, sense importar-ne el risc, i no tenim cap poder per evitar-ho.

Companyies com OpenAI parlen de la intel·ligència artificial general (IAG), la que iguala o supera el coneixement humà. Aquesta idea del Terminator és ciència-ficció, però ¿com de lluny som d’això?

És poc probable que tinguem un escenari Terminator en el qual les màquines per si soles decideixin prendre el control. No estic segur que ho vegem, tot i que és bo que hi hagi gent estudiant-ho.

Crec que hauríem d’estar més preocupats pels prejudicis que pot arrossegar la IA, pels errors que comet o per com els mals actors ja poden utilitzar-la per interferir en eleccions, manipular el mercat o inventar noves armes. També perquè cada vegada més gent s’enganxa a aquestes coses i creu que els entenen. I això té molts riscos. En una ocasió, un xat va animar algú a suïcidar-se.

El neurocientífic expert en intel·ligència artificial Gary Marcus /

Parlament de Catalunya / Jordi Garcia Monte

Llavors, ¿que experts i grans empreses parlin de «ments no humanes que podrien reemplaçar-nos» és una maniobra de distracció per no parlar de problemes més reals com la concentració de poder?

És molt possible que sigui així, però no sé quines són les seves motivacions. Algunes persones potser pensen que la IAG és a prop i d’altres creuen que si ho diuen augmentaran les valoracions de la seva empresa. La realitat és que no som a prop que les màquines tinguin un propòsit intel·ligent ni que hi puguem confiar. És més fàcil preocupar-se pels escenaris de ciència-ficció i esquivar que la desinformació ja és aquí i no tenim una bona resposta per frenar-la. Si dirigís una gran empresa, m’agradaria que pensessis en els problemes més abstractes i no en els problemes concrets i immediats que no puc resoldre.

És més fàcil preocupar-se per escenaris de ciència-ficció i esquivar parlar d’altres perills, com la desinformació, que ja és aquí i no sabem com respondre-hi

La IA viu de l’extracció de dades. ¿El seu ús expandeix la vigilància com a model de negoci?

Estem acostumats que tothom, per qualsevol cosa, accedeixi a renunciar als seus drets a la privacitat. Molta gent està posant tota mena de dades a ChatGPT i això crearà un munt de problemes de seguretat. Quan vaig comparèixer al Senat, Sam Altman [fundador d’OpenAI] va dir que no utilitzaran aquestes dades per vendre anuncis, cosa que no significa que no ho facin. Utilitzar aquestes eines significa donar molta informació a les empreses que hi ha al darrere.

És partidari de crear una organisme global que supervisi la IA com ja passa amb l’energia nuclear. ¿És la llei que la UE prepara el model a seguir?

En general, sí. M’agrada bastant, però encara no és llei i podria no aprovar-se o debilitar-se. Fins i tot si no és perfecta, és un dels millors intents que hi ha. M’agrada que posin la responsabilitat entorn de la transparència. Podem tenir esperança.

Fins i tot si no és perfecta, la llei de la IA que prepara la UE és el millor intent que hi ha. Podem tenir esperança.

Ara, les ‘big tech’ diuen que volen certa regulació, però han disparant el seu ‘lobby’ per limitar la llei i Altman fins i tot va amenaçar de treure ChatGPT de la UE. ¿Es tracta d’una estratègia de relacions públiques?

En part ho és, volen aparentar que els importa. En realitat veuen algun valor en la regulació, però la volen construir de manera que les protegeixi i mantingui altres empreses fora. El pitjor que podem fer és no tenir regulació; el segon pitjor és una regulació dictada per les empreses.

Necessitem transparència entorn de les dades que s’utilitzen perquè els artistes i escriptors puguin ser compensats, perquè les fonts de biaix puguin ser detectades i mitigades, i perquè els científics puguin entendre el que fan aquests sistemes. Els governs hi han d’insistir i hauran de penalitzar-ne l’incompliment perquè les empreses no ho faran voluntàriament.

Algunes persones tenen bones intencions i d’altres no. Però les empreses juguen el joc dels ‘lobbies’. Tenen molts diners i estan mirant d’inclinar la balança perquè la regulació les afavoreixi. No podem deixar que passi. Em molesta molt cada vegada que algun funcionari del Govern es reuneix amb un munt de grans líders tecnològics i es fan fotos. Això envia el missatge equivocat. Necessitem que en aquestes reunions hi hagi científics independents i eticistes i no només empreses i governs a porta tancada.

Notícies relacionades

Tot i així, gran part de la investigació científica en aquest camp està controlada econòmicament per gegants com Google o Meta...

És definitivament un problema que no hi hagi prou finançament independent i que gran part dels diners provinguin de les empreses, perquè marquen l’agenda. L’economia està enormement a favor de les empreses i per als acadèmics no acceptar aquests diners els fa més difícil competir. Tota l’agenda de la ciència ha sigut eclipsada per l’economia. El fet que els anuncis personalitzats que pots fer amb IA siguin tan econòmicament rendibles va convertir Google i Meta en companyies enormes i això ha distorsionat la investigació.