ASSUMPTES PROPIS
Idoia Salazar, presideix l’Observatori de l’Impacte Social i Ètic de la Intel·ligència Artificial (OdiseIA): "Conviurem amb agents d’IA de tu a tu"
Idoia Salazar (Madrid, 1976), autora de llibres com La revolución de los robots i El mito del algoritmo
Veu influent de l’impacte dels algoritmes

Idoia Salazar /
És una tecnoptimista assenyada. L’apassiona la digitalització des de l’aparició dels primers cercadors, però, davant el creixement exponencial de la IA, defensa marcar límits ètics i canviar consciències. Pel bé de la democràcia. Idoia Salazar (Madrid, 1976), autora de llibres com La revolución de los robots i El mito del algoritmo i aclamada conferenciant –la Fundació Carulla la va convidar al cicle Mutare 2025–, presideix l’Observatori de l’Impacte Social i Ètic de la Intel·ligència Artificial (OdiseIA).
¿Què observa des del seu observatori?
Que ve un canvi dràstic i la gent no n’acaba de comprendre la dimensió. La IA generativa exigeix una estructura nova. En les empreses, per exemple, els empleats han de saber com poden optimitzar la seva feina; els clients, de quina manera s’usaran les seves dades, i el departament legal, les implicacions de l’ús d’un algoritme.
La IA generativa està entrenada per humans. Malament rai, ¿no troba?
¿Quin percentatge de confiança dona el GPS d’un cotxe? Pot tenir un mapa desactualitzat i no portar-lo a la destinació. La IA no és l’oracle del món. En el futur, s’espera que els algoritmes seran entrenats amb molt poques dades molt fiables i que la mateixa màquina vagi generant dades.
Sona inquietant.
A vostè no li poden pas obrir el cervell i treure-li els prejudicis que pugui tenir, però en canvi amb la màquina això sí que es pot fer. Les màquines es poden netejar de biaixos. Dit això, tampoc no s’ha de confiar al 100% en la tecnologia. Cal educar i conscienciar sobre el seu ús.
¿Cap a on ens porta tot plegat?
Cap a un món cada vegada més convertit a dades, en què conviurem amb humans i agents d’IA de tu a tu. Serà com si cadascú tingués un secretari que et comprèn a la perfecció, s’adapta al 100% a tu i és capaç d’operar amb els teus contactes. Demanar cites mèdiques, elaborar informes, respondre correus. Una part de la IA també repercutirà sobre qüestions intrínseques a l’ésser humà. Serà comú tenir un amic, un terapeuta, un metge virtuals.
Molta intimitat cedida, ¿no?
Per això n’hem de comprendre més bé els límits. El 2021 es va publicar a Espanya la Carta de Drets Digitals, però serà paper mullat si no es fa una tasca de conscienciació sobre el veritable impacte, per dotar-nos d’eines i de sentit crític.
Si això no passa, ¿què ens espera?
Si no fem una transformació dràstica de l’Administració pública i de les estructures educatives i empresarials aviat, tindrem un greu problema en temes com ara la influència massiva sobre el subconscient de la població. Delegar la presa de decisions en aquests sistemes d’IA serà directament proporcional a la facilitat de manipulació. Si els Estats Units ho han aconseguit a través de la televisió, imagini’s un sistema personalitzat que incideix directament sobre la nostra consciència.
Tendim a fer el ronso.
Ara és arriscat. Des que tenim els telèfons mòbils, per exemple, els antropòlegs diuen que la nostra memòria minva. Els gimnasos van sorgir després de la revolució industrial, per entrenar els músculs. Per entrenar el nostre criteri, calen gimnasos mentals.
¿I si en comptes d’exigir més a la població, es frena la cursa tecnològica?
La IA generativa no és pas dolenta, però no ho podem fiar tot a l’ètica d’empreses i administracions. En la regulació europea, que serà preceptiva a partir del 2 d’agost de 2026, diu que quan hi hagi un algoritme que afecti els drets fonamentals, serà obligatori prendre mesures o assumir la multa i el final de l’activitat.
Si preguntes a ChatGPT què li sembla que la regulació diu que li limita la llibertat.
ChatGPT va néixer com un algoritme lliure de regulació. Es va entrenar un nadó amb totes les dades existents i es va deixar anar al món. Al principi, al veure que responia a tot, molts van començar a preguntar-li coses com quina era la millor manera de suïcidar-se usant un boli. Ara té una sèrie de filtres i, davant preguntes malicioses, respon: "Això no és ètic». Però OpenAI és una empresa americana. Als EUA la regulació interessa poc i és lògic que, al programar, es reflecteixi.
¿Diria vostè que les màquines han començat a pensar?
Si pensar és poder relacionar conceptes i prendre una decisió, ja poden. Els humans som capaços de processar dades, però també tenim por del càstig i aspiració al premi. A la màquina aquestes coses li són ben iguals.
¿Acabarem sent prescindibles?
Notícies relacionadesEm preocupa més ser prescindibles per als polítics i les grans corporacions. Per això fomentar l’esperit crític és la meva croada. No s’ha de ser alarmistes, sinó realistes: necessitem un esforç comú per intentar no ser irrellevants, perquè hi ha un risc real
.
Ja ets subscriptor o usuari registrat? Inicia sessió
Aquest contingut és especial per a la comunitat de lectors dEl Periódico.Per disfrutar daquests continguts gratis has de navegar registrat.
- Platja El pacífic poble a només 15 minuts de Santa Coloma de Gramenet: espectacular
- Balanç comercial d’equipaments municipals Agonia comercial en mercats de la província de BCN
- Els mals hàbits dels ‘boomers’ desafien el sistema de salut
- Tendència urbana El tardeig s’expandeix per locals de tot tipus amb (i sense) permisos d’Interior i amb queixes de l’oci a Catalunya
- El conflicte del Pròxim Orient L’Iran apel·la a la diplomàcia i Israel mata dos caps
- ASSUMPTES PROPIS Idoia Salazar, presideix l’Observatori de l’Impacte Social i Ètic de la Intel·ligència Artificial (OdiseIA): "Conviurem amb agents d’IA de tu a tu"
- ‘BLOSSOMS SHANGHAI’ La confiança
- Alba Petisco, gimnasta: "La gent ja em mira amb uns altres ulls. Les millors saben que existeixo"
- Tennis Alcaraz s’exhibeix contra Bautista i jugarà la final de Queen’s
- FUTBOL L’Andorra de Piqué s’imposa i torna a Segona Divisió