Eclosió de la intel·ligència artificial

«Hitler tenia raó»: per què no pots fiar-te de ChatGPT i els bots d’intel·ligència artificial

Tot i que avançats, els sistemes desplegats per Microsoft i Google encara repliquen informacions incorrectes o falses i els experts temen que un ús acrític pugui amplificar la desinformació

«Hitler tenia raó»: per què no pots fiar-te de ChatGPT i els bots d’intel·ligència artificial

Microsoft

5
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

El 6 de febrer, Google va centrar l’atenció mediàtica mundial a París. Enmig d’una alta expectació, el gegant nord-americà va presentar Bard, el seu nou i esperat sistema d’intel·ligència artificial (IA) capaç de parlar amb els usuaris. Amb aquest llançament, Google pretenia plantar cara a Microsoft, que havia anunciat la integració del revolucionari ChatGPT al seu cercador Bing. No obstant, les coses no van anar com havien esperat. En la primera demostració del seu potencial davant el gran públic, Bard va respondre una informació errònia. Poc després, les accions de la companyia queien gairebé el 8%.

Aquest fiasco de Google és lluny de ser un cas aïllat. Tot i que al principi ningú se’n va adonar, el xatbot que Microsoft havia publicat justament un dia abans va repetir errors molt similars. El sistema era capaç de respondre a tota mena de peticions dels usuaris, des d’explicar la teoria de la gravetat de manera comprensible per a un nen de 10 anys fins a recomanar els millors llocs per sortir de festa a Mèxic. I ho feia amb autoritat, convençut del que deia. Però això no va evitar que el contingut difós estigués ple d’incorreccions i mentides.

Les últimes setmanes, cada vegada més experts han transmès missatges d’alarma sobre els riscos que la IA serveixi per amplificar la desinformació a gran escala. El novembre passat, la companyia OpenAI va publicar en obert ChatGPT. El programa s’ha convertit en un fenomen global i acumula ja més de 100 milions d’usuaris únics al mes, i d'aquesta manera és l’aplicació de consum de creixement més ràpid de la història. Microsoft va decidir llavors integrar aquest model conversacional a Bing, cosa que va obrir la porta a una revolució dels cercadors web. O, el que és el mateix, a canviar per sempre la manera en què ens informem a internet.

ChatGPT no sap que no sap

La fascinació per les capacitats d’aquesta tecnologia per simular el raonament humà ha disparat les expectatives, però en paral·lel no han parat de sorgir exemples compartits pels usuaris en què ChatGPT i les seves variants responen amb informació falsa. Aquesta problemàtica realitat es deu al funcionament mateix d’aquestes màquines: estan programades per analitzar ingents volums de textos escrits que extreuen d’internet i, a partir d’aquí, aprendre a construir frases amb sentit. Si ChatGPT és el cos, el model de llenguatge GPT-3 n’és el cor.

Tot i així, el fet que les respostes siguin versemblants no significa que siguin certes. La construcció d’aquestes frases respon a càlculs de probabilitat, així que si la màquina ha après d’informació falsa que hi ha publicada a la web el que estarà fent és replicar aquestes notícies falses. Aquest càlcul probabilístic fa que fins i tot pugui inventar-se successos que no han passat, cosa que es coneix com a «al·lucinacions». El problema afegit que hi ha és que ChatGPT no sap quan comet errors, així que els presenta com si fossin certs. «Si no ets rigorós sempre, no ets fiable mai», resumia l’analista tecnològic Antonio Ortiz al butlletí ‘Error505’.

El risc va més enllà. Un estudi d’Anthropic –corporació fundada per exmembres d’OpenAI i en la qual Google ha invertit 400 milions de dòlars– ha assenyalat que com més grans siguin els models de llenguatge utilitzats per programar aquests sistemes més tendència tindran a «respondre preguntes de manera que creen cambres d’eco repetint les respostes favorites dels usuaris». Així, poden servir per dir als usuaris el que volen escoltar per confirmar les seves creences, encara que no siguin certes.

Repetir com un lloro

El perill de ChatGPT també té rostre humà. I és que el que ha generat més polèmica ha sigut que Bing va assegurar a diversos periodistes que volia «estar viu» i que havia espiat els enginyers de Microsoft a través de les càmeres web. Fa dècades que la idea que les màquines puguin tenir consciència fascina els humans. Malgrat això, la realitat és més avorrida que la ficció (o la ciència-ficció, en aquest cas). Els lloros són capaços de dir «hola», no perquè vulguin saludar-te, sinó perquè repeteixen el que han escoltat dels humans. Amb la IA passa una cosa similar. Aquests xatbots són capaços de recórrer a tot allò publicat a internet per interpretar un paper i actuar com si tinguessin sentiments, però no en tenen. Així, l’afany i la fixació mediàtica en aquesta especulació morbosa és un arbre que no deixa veure el bosc.

D’altra banda, i més enllà de les falsedats inintencionades de la màquina, també hi ha el risc que actors maliciosos instrumentalitzin eines com ChatGPT per propagar «desinformació tòxica a una escala sense precedents», segons va denunciar fa unes setmanes un informe de l’organització periodística NewsGuard. Engegar una campanya de ‘fake news’ mai ha sigut tan fàcil.

Corregir els errors

Llavors, ¿per què han publicat unes IA que poden difondre mentides? Microsoft i OpenAI han obert ChatGPT i el nou Bing al públic perquè creuen que l’entrenament massiu amb milions d’usuaris és la millor manera de corregir aquests errors i fer que el sistema sigui cada vegada més precís. Això, a més, també els permet marcar l’agenda en el sector i ser els primers en aquest mercat emergent, en el qual també volen despuntar altres gegants com Meta (empresa matriu de Facebook), Amazon i la xinesa Baidu. Google, d’altra banda, ha optat per ser més cautelós i guardar les seves invencions amb pany i clau per evitar un impacte social negatiu. Almenys de moment.

Notícies relacionades

Google va triar aquesta estratègia per por que aquests errors li causessin una crisi reputacional, com ja els ha passat als seus rivals. El 2016 Microsoft va llançar Tay, un xatbot d’IA que operava a Twitter. Dos dies després va haver de retirar-lo perquè podia propagar missatges racistes i homòfobs. «Hitler tenia raó», va arribar a tuitejar. Aquest desastre de relacions públiques no és únic. L’agost passat, Meta va haver de retirar el seu IA BlenderBot 3 després de repetir les falses consignes de frau electoral que va popularitzar Donald Trump i conspiracions antisemites. Al novembre, Meta també va retirar Galactica, el seu model destinat a assistir la comunitat científica, després de denúncies que cometia errors.

Microsoft té entre mans el que pot ser un gran èxit no exempt de danys col·laterals. Com més gran sigui l’adopció acrítica d’aquesta tecnologia més elevat serà el risc de desinformació. El funcionament es pot perfeccionar, però el perill és allà. Tot i que n’és conscient, el director executiu de Microsoft, Satya Nadella, veu aquests debats ètics en un segon pla. En el primer hi ha la milionària oportunitat de liderar el negoci del futur. «Espero que amb la nostra innovació [Google] surti i demostri que pot ballar», va confessar a The Verge. «Vull que la gent sàpiga que els hem fet ballar».