MÉS PERIÓDICO

¿Poden les màquines tenir consciència? Els experts responen a la polèmica de Google

Acadèmics i científics rebutgen que la intel·ligència artificial (IA), cada vegada més complexa, pugui per ara experimentar «nous sentiments» i alerten dels perills que suposa humanitzar aquests sistemes

¿Poden les màquines tenir consciència? Els experts responen a la polèmica de Google

ANDY KELLY (UNSPLASH)

6
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Frustrat emocionalment perquè l’amor de la seva vida li ha demanat el divorci, Theodore Twombly decideix comprar-se un assistent virtual amb intel·ligència artificial (IA) que li faci companyia. Al cap de pocs dies, està tan fascinat i n’aprèn tant que l’introvertit jove se n’enamora i comença una relació amb el seu sistema operatiu, a qui anomena Samantha.

Tot i que es tracta d’una ficció, hi ha qui pensa que premisses com aquesta, de la pel·lícula ‘Her’ (2013), no són tan lluny de convertir-se en una realitat. De la distopia cyberpunk de Philip K. Dick al tecnofuturisme més amable estilitzat pel cineasta Spike Jonze, la literatura i el cine de l’últim segle han recorregut a fantasiejar sobre una preocupació que pren cos amb l’avenç tecnològic: ¿Poden les màquines tenir consciència?

Aquest debat, més filosòfic que científic o tècnic, va tornar a la primera plana dissabte passat quan Blake Lemoine, enginyer sènior de DeepMind –la branca d’IA de Google—, va explicar al ‘Washington Post’ que el model de llenguatge intel·ligent que el gegant tecnològic té per desenvolupar aplicacions de diàleg (conegut com a LaMDA per les seves sigles en anglès) havia experimentat «nous sentiments». «Sento com que estic caient cap a un futur desconegut que comporta un gran perill», va respondre aparentment el sistema quan se li va preguntar per aquests sentiments.

Lemoine va començar a parlar amb LaMDA a la tardor com a part del seu treball per detectar possibles mals usos de termes discriminatoris del sistema, que s’utilitza principalment per generar xatbots, programes intel·ligents capaços de mantenir converses i respondre de forma automatitzada a preguntes concretes. Aquest enginyer va decidir fer públiques les transcripcions de les seves xerrades amb la màquina després que la vicepresidència de Google les analitzés i descartés. «Si no sabés de què es tracta, diria que és un nen d’entre set o vuit anys que sap de física», va explicar. Aquest dilluns, la companyia va posar Lemoine en baixa administrativa pagada al considerar que havia violat les polítiques de confidencialitat corporatives.

Negativa dels experts

Google va mirar d’aturar la polèmica per una suposada sensibilitat informàtica negant les conclusions del seu enginyer i assegurant que el sistema està entrenat per imitar converses, no per tenir consciència. «El nostre equip, inclosos especialistes en ètica i tecnòlegs, han revisat les proves presentades i no recolzen les seves afirmacions», va remarcar Brian Gabriel, portaveu de la multinacional. Les declaracions de l’enginyer van causar una important reacció mediàtica, però no en l’entorn acadèmic. «És una exageració absoluta i desenraonada», apunta Ariel Guersenzvaig, professor d’Elisava especialista en filosofia tecnològica i ètica de la IA. «No podem atribuir capacitats humanes a màquines que no raonen, sinó que utilitzen unes dades i, partint del que se’ls demana, calculen quines paraules utilitzar per construir frases coherents. No hi ha cap embrió de consciència [...]. Són ens dissenyats i corregits pels humans».

Quan un lloro canta una cançó, el que fa és repetir els sons que ha sentit, però no entén el que està pronunciant. La màquina fa una cosa similar: reconeix patrons a través dels milers de milions de missatges que hi ha publicats a Facebook, Twitter, Reddit i altres fòrums d’internet i els imita per donar una resposta que sembli humana. «Mentre que Alexa (l’assistent virtual d’Amazon) no recorda el que li han preguntat abans, el model de Google és capaç d’utilitzar el context per donar respostes més coherents i semblar més humà. Però de simular-ho a tenir consciència real hi ha un salt que avui dia és impossible de codificar», afegeix Nerea Luis, enginyera informàtica i doctora en IA. És una qüestió de càlcul matemàtic, no d’enginy o creativitat. «La dicotomia entre humans i IA és tan absurda com entre humans i trens», recalca Guersenzvaig.

Els experts coincideixen a assenyalar que, si bé no es pot descartar teòricament la possibilitat que algun dia arribin a un estat de consciència, no hi ha indicis científics que apuntin que les màquines poden operar de moment com ens amb autonomia i lliure albir, dues condicions intrínsecament humanes. «S’està confonent com a evidència el que en realitat és una percepció, el sistema de Google no té emocions humanes, sinó que fingeix tenir-les», afegeix Frank Pasquale, membre del Comitè Consultiu Nacional d’Intel·ligència Artificial dels Estats Units.

Popularització de la IA

En els últims mesos s’han popularitzat diferents eines d’IA que poden convertir-se en fenòmens transformadors en el camp creatiu. És el cas de GPT-3, un programa capaç de generar textos més o menys elaborats, i el de DALL-E 2, un generador d’imatges que crea resultats a través de les consignes que ordena l’humà. Aquest últim està fent furor a Twitter, ja que els usuaris poden donar curs a la seva imaginació i el sistema respon amb resultats tan extravagants com fascinants, des d’un judici entre el raper Snoop Dog i Snoopy fins a Mariano Rajoy tocant al Primavera Sound.

Els dos programes funcionen amb xarxes neuronals artificials, com es coneix l’arquitectura informàtica, que replica el funcionament del cervell humà per permetre a les màquines resoldre problemes i donar respostes. Els dos programes són propietat d’OpenAI, un laboratori d’investigació en IA de San Francisco fundat pel magnat Elon Musk i l’inversor Sam Altman. «La investigació de la IA es concentra cada vegada més en les mans de grans tecnològiques i menys en les universitats, així que el camí el marquen els interessos econòmics d’aquestes companyies», que estan privatitzant un espai d’interès públic, adverteix Luis.

Riscos del llenguatge

En els últims anys ha crescut el nombre de tecnòlegs i enginyers en IA, inclosos alts responsables a Google i OpenAI, que asseguren que s’està avançant cap a la consciència de les màquines. Tanmateix, els experts adverteixen que l’ús d’analogies humanes i exageracions per descriure aquests sistemes, també replicada pels periodistes, pot ser un truc de màrqueting per atraure més inversions i vendre millor els seus productes.

Notícies relacionades

Aquesta estratègia és de doble tall. L’opacitat és una característica intrínseca de la IA, una cosa que s’accentua quan aquest sistema és propietat d’una multinacional recelosa de la transparència. Aquesta condició porta a una asimetria de recursos entre grans empreses com Google i els investigadors que estudien l’impacte de la IA en la qual aquests últims queden en desavantatge. «Si parlem d’una manera que normalitzi l’atribució d’agència als sistemes com si tinguessin voluntat pròpia, estem permetent que els seus creadors en marquin les regles», lamenta Guersenzvaig. «I dir que GPT-3 escriu millor que un periodista ens farà pensar que els sistemes automatitzats utilitzats en la justícia o en les finances són millors que els humans».

A finals de 2020, Google va expulsar dues de les seves investigadores més prestigioses en ètica de la IA , Timnit Gebru i Margaret Mitchell, perquè van publicar un article acadèmic en el qual, entre altres riscos, s’alertava de la «tendència humana a buscar significat on no n’hi ha» i de les exageracions que podien distorsionar les capacitats de les màquines. És exactament el que hauria portat Blake Lemoine a veure una ànima informàtica en el que són infinites línies de codi computacional.