Entrevista

«Necessitem posar normes per frenar el missatge dels que beuen lleixiu o neguen l’existència del virus»

Miguel Luengo Oroz, el primer científic de dades de les Nacions Unides, parla sobre el futur del ‘big data’, la intel·ligència artificial i les plataformes tecnològiques

«Necessitem posar normes per frenar el missatge dels que beuen lleixiu o neguen l’existència del virus»
5
Es llegeix en minuts
Valentina Raffio
Valentina Raffio

Periodista.

Especialista en ciència, salut i medi ambient.

Ubicada/t a Barcelona.

ver +

Fa just deu anys, les Nacions Unides van anunciar, per primera vegada en la seva història, el llançament del primer projecte de ciència de dades de l’organització. El febrer del 2011, l’asturià Miguel Luengo Oroz es va convertir en el primer especialista en intel·ligència artificial i ‘big data’ de la iniciativa ‘Global Pulse’ de l’ONU. Una dècada més tard, aquest enginyer espanyol ha dirigit equips i projectes a tots els continents i parla com un dels pioners a nivell internacional en l’aplicació d’aquestes eines en projectes de desenvolupament sostenible i acció humanitària. També destaca com una de les veus que, des de l’experiència, reclama un canvi en el sector. «Igual que els metges tenen un codi deontològic, els científics de dades també haurien de comprometre’s amb uns criteris ètics», explica l’expert en una entrevista amb EL PERIÓDICO.

Luengo Oroz parla del futur de la intel·ligència artificial com un camí que, lluny d’estar guiat només per qüestions tecnològiques, s’hauria de basar en principis ètics que pretenguin tenir «un impacte positiu per a les persones i per al planeta». «Els científics no haurien de conformar-se amb desenvolupar la tecnologia i ja està. L’ètica hauria de ser el centre de la cadena de treball. S’ha de convertir en rutina el fet de preguntar-se quin impacte tenen aquests projectes en la humanitat i en el medi ambient», explica. Per això mateix, segons argumenta Luengo Oroz, de res serveix desenvolupar les aplicacions d’última generació que suggereixin sempre l’opció més contaminant. O que les xarxes socials tinguin algoritmes superavançats que, a la pràctica, serveixin per difondre notícies falses.

S’ha de convertir en rutina el fet de preguntar-se quin impacte tenen aquests projectes en la humanitat i en el medi ambient».

«Durant la pandèmia hem assistit a la primera infodèmia de la revolució digital i hem vist, una vegada més, que a les xarxes socials les notícies falses corren com la pólvora. Per aturar aquest problema necessitem més transparència, per saber exactament com funcionen aquestes plataformes. Però també necessitem començar a regular, a posar normes, per frenar el missatge dels que beuen lleixiu o neguen l’existència del virus», esgrimeix Luengo Oroz, que durant aquests últims anys ha estudiat de prop el fenomen en col·laboració amb l’Organització Mundial de la Salut (OMS).

«Amb la desinformació està en joc una cosa molt important; la confiança en els fets. No pot ser que anem cap a un futur en què, per culpa de les ‘fake news’, no sapiguem què és veritat i què és mentida», afegeix l’expert, recentment convidat al congrés ‘Pandèmies’ organitzat per Biocat i La Caixa.

«No pot ser que anem cap a un futur on, per culpa de les ‘fake news’, no sapiguem què és veritat i què és mentida»

 

Tecnologia al servei de la societat

Durant aquesta crisi sanitària, Luengo Oroz també ha format part de l’equip multidisciplinari encarregat de coordinar la missió humanitària al camp de refugiats de Kutupalong, a Bangladesh; l’emplaçament de desplaçats més gran del món, llar de més de 600.000 persones. «En aquests casos és molt important combinar eines d’intel·ligència artificial i anàlisi humana per, per exemple, decidir quines mesures de salut pública són més efectives. Si aquestes decisions es prenguessin només partint d’intuïcions o càlculs manuals, probablement hauríem arribat massa tard a uns resultats que, a més, tampoc serien òptims. I si ho haguéssim deixat en mans d’algoritmes i simulacions digitals, la falta de context i el marge d’error podria haver deixat molta gent sense ajuda», explica el científic. 

«Els algoritmes i el ‘big data’ poden ajudar en molts aspectes, però no tot se soluciona contractant un científic de dades»

«Els algoritmes i el ‘big data’ poden ajudar en molts aspectes, però no tot se soluciona contractant un científic de dades», matisa Luengo Oroz. Segons argumenta, el primer pas és que la societat i els governs estiguin formats sobre els límits i les possibilitats d’aquestes tecnologies. A continuació, cal apostar per equips multidisciplinaris que entenguin les arrels del problema i sàpiguen quin és el millor camí per començar a construir una solució. Llavors sí, argumenta Luengo Oroz, que tindrà tot el sentit del món desplegar eines tecnològiques.

«Dir només que la intel·ligència artificial ajuda els refugiats seria donar una idea equivocada. La tecnologia és només una eina que dissenyada i adaptada al context pot ajudar a solucionar un problema. Però tan difícil com resoldre el repte tecnològic és fer-se les preguntes correctes», comenta l’expert.

 

‘Deep fakes’, metaversos i neurotecnologies

Parlant del futur de la intel·ligència artificial, Luengo Oroz afirma que té posat el seu radar en diversos dilemes ètics i tecnològics. «Ara que es parla tant de metaversos, em preocupa que anem cap a un món on la biosfera digital i la física estan totalment desconnectades. No vull que les meves filles visquin en un món ‘online’ en què sigui més important relacionar-se amb bots que tenir empatia amb els humans», reflexiona l’expert.

No vull que les meves filles visquin en un món ‘online’ on sigui més important relacionar-se amb ‘bots’ que tenir empatia amb els humans»

Notícies relacionades

«També veig que s’està avançant molt en qüestions de neurotecnologia, que en un futur podrien permetre’ns connectar cervell i ordinador, però em preocupa que la regulació sobre aquestes qüestions no s’estigui desenvolupant amb la mateixa rapidesa. ¿Què passarà el dia que tinguem una tecnologia capaç de llegir la meva ment però que no tingui garanties sobre la meva privacitat mental?», comenta el científic.

A curt termini, explica Luengo Oroz, el debat més important que hem d’abordar com a societat és la regulació d’eines tecnològiques que, des de ja, estan contribuint a una onada sense precedents de desinformació i polarització en totes les esferes socials. «La desinformació és, potser, un dels problemes més greus a què ens enfrontem com a democràcia. Durant aquesta pandèmia, les notícies falses ja li han costat la salut a molta gent. I anant un pas més enllà, el següent genocidi podria començar amb un vídeo fals, un ‘deep fake’, enviat per whatsap. Cal legislar perquè les ‘fake news’ facin menys mal», sentencia Luengo Oroz.