ASSUMPTES PROPIS

Idoia Salazar, presideix l’Observatori de l’Impacte Social i Ètic de la Intel·ligència Artificial (OdiseIA): "Conviurem amb agents d’IA de tu a tu"

Idoia Salazar (Madrid, 1976), autora de llibres com La revolución de los robots i El mito del algoritmo

Veu influent de l’impacte dels algoritmes

Idoia Salazar

Idoia Salazar / ferran Nadeu

3
Es llegeix en minuts
Núria Navarro
Núria Navarro

Periodista

ver +

És una tecnoptimista assenyada. L’apassiona la digitalització des de l’aparició dels primers cercadors, però, davant el creixement exponencial de la IA, defensa marcar límits ètics i canviar consciències. Pel bé de la democràcia. Idoia Salazar (Madrid, 1976), autora de llibres com La revolución de los robots i El mito del algoritmo i aclamada conferenciant –la Fundació Carulla la va convidar al cicle Mutare 2025–, presideix l’Observatori de l’Impacte Social i Ètic de la Intel·ligència Artificial (OdiseIA).

¿Què observa des del seu observatori?

Que ve un canvi dràstic i la gent no n’acaba de comprendre la dimensió. La IA generativa exigeix una estructura nova. En les empreses, per exemple, els empleats han de saber com poden optimitzar la seva feina; els clients, de quina manera s’usaran les seves dades, i el departament legal, les implicacions de l’ús d’un algoritme.

La IA generativa està entrenada per humans. Malament rai, ¿no troba?

¿Quin percentatge de confiança dona el GPS d’un cotxe? Pot tenir un mapa desactualitzat i no portar-lo a la destinació. La IA no és l’oracle del món. En el futur, s’espera que els algoritmes seran entrenats amb molt poques dades molt fiables i que la mateixa màquina vagi generant dades.

Sona inquietant.

A vostè no li poden pas obrir el cervell i treure-li els prejudicis que pugui tenir, però en canvi amb la màquina això sí que es pot fer. Les màquines es poden netejar de biaixos. Dit això, tampoc no s’ha de confiar al 100% en la tecnologia. Cal educar i conscienciar sobre el seu ús.

¿Cap a on ens porta tot plegat?

Cap a un món cada vegada més convertit a dades, en què conviurem amb humans i agents d’IA de tu a tu. Serà com si cadascú tingués un secretari que et comprèn a la perfecció, s’adapta al 100% a tu i és capaç d’operar amb els teus contactes. Demanar cites mèdiques, elaborar informes, respondre correus. Una part de la IA també repercutirà sobre qüestions intrínseques a l’ésser humà. Serà comú tenir un amic, un terapeuta, un metge virtuals.

Molta intimitat cedida, ¿no?

Per això n’hem de comprendre més bé els límits. El 2021 es va publicar a Espanya la Carta de Drets Digitals, però serà paper mullat si no es fa una tasca de conscienciació sobre el veritable impacte, per dotar-nos d’eines i de sentit crític.

Si això no passa, ¿què ens espera?

Si no fem una transformació dràstica de l’Administració pública i de les estructures educatives i empresarials aviat, tindrem un greu problema en temes com ara la influència massiva sobre el subconscient de la població. Delegar la presa de decisions en aquests sistemes d’IA serà directament proporcional a la facilitat de manipulació. Si els Estats Units ho han aconseguit a través de la televisió, imagini’s un sistema personalitzat que incideix directament sobre la nostra consciència.

Tendim a fer el ronso.

Ara és arriscat. Des que tenim els telèfons mòbils, per exemple, els antropòlegs diuen que la nostra memòria minva. Els gimnasos van sorgir després de la revolució industrial, per entrenar els músculs. Per entrenar el nostre criteri, calen gimnasos mentals.

¿I si en comptes d’exigir més a la població, es frena la cursa tecnològica?

La IA generativa no és pas dolenta, però no ho podem fiar tot a l’ètica d’empreses i administracions. En la regulació europea, que serà preceptiva a partir del 2 d’agost de 2026, diu que quan hi hagi un algoritme que afecti els drets fonamentals, serà obligatori prendre mesures o assumir la multa i el final de l’activitat.

Si preguntes a ChatGPT què li sembla que la regulació diu que li limita la llibertat.

ChatGPT va néixer com un algoritme lliure de regulació. Es va entrenar un nadó amb totes les dades existents i es va deixar anar al món. Al principi, al veure que responia a tot, molts van començar a preguntar-li coses com quina era la millor manera de suïcidar-se usant un boli. Ara té una sèrie de filtres i, davant preguntes malicioses, respon: "Això no és ètic». Però OpenAI és una empresa americana. Als EUA la regulació interessa poc i és lògic que, al programar, es reflecteixi.

¿Diria vostè que les màquines han començat a pensar?

Si pensar és poder relacionar conceptes i prendre una decisió, ja poden. Els humans som capaços de processar dades, però també tenim por del càstig i aspiració al premi. A la màquina aquestes coses li són ben iguals.

¿Acabarem sent prescindibles?

Notícies relacionades

Em preocupa més ser prescindibles per als polítics i les grans corporacions. Per això fomentar l’esperit crític és la meva croada. No s’ha de ser alarmistes, sinó realistes: necessitem un esforç comú per intentar no ser irrellevants, perquè hi ha un risc real

.