Secció recomanada per

Entrevista

Nerea Luis: «Les màquines no ens substituiran, col·laboraran amb nosaltres»

  • Parlem amb aquesta jove i prestigiosa doctora en Intel·ligència Artificial (IA) sobre els riscos i oportunitats dels sistemes algorítmics

Nerea Luis: «Les màquines no ens substituiran, col·laboraran amb nosaltres»

Nerea Luis

5
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Comptar les hores per sortir de classe és una cosa habitual de tots els nens. No obstant, per a Nerea Luis Mingueza (Madrid, 1991) la diversió fora de l’aula era un món d’aprenentatge fora del comú. «El meu ‘hobby’ es va convertir a connectar-me a internet per aprendre coses», explica. De petita, es va quedar fascinada amb l’ordinador que el seu oncle tenia a casa, que li permetia satisfer la seva curiositat «obsessiva» per la cultura manga. Els seus professors van detectar el seu interès i la van encaminar cap a la carrera d’enginyeria informàtica.

Amb només 30 anys, Luis ja s’ha convertit en un referent nacional en el camp tecnològic. Doctora en Ciències de la Computació especialitzada en Intel·ligència Artificial (IA), aquesta riallera jove de cabells blaus –com Sailor Mercury, el seu personatge preferit de la sèrie ‘Sailor Moon’– ha sigut condecorada per la Casa Reial amb l’Orde del Mèrit Civil, premiada amb el guardó Google Anita Borg i seleccionada dins el Top 100 Dones Líders a Espanya. Actualment treballa com a consultora a la firma Sngular i des del 2013 és cofundadora de T3chFest, un esdeveniment tecnològic anual que se celebra a la seva universitat, la Carlos III de Madrid.

Luis rep EL PERIÓDICO DE CATALUNYA en el marc d’una xerrada en el congrés ‘Humanism in the digital age’, de Digital Future Society.

Només un 12% dels treballs tècnics en IA estan ocupats per dones. ¿És un entorn difícil en què prosperar?

Has de tenir molt clar que, com a dona, ets minoria. Tant a l’institut com en la carrera vaig notar que hi havia més nois, però tenia molt clar on volia arribar, així que tot el soroll no m’afectava. No ha sigut fins més endavant i a través de l’experiència d’altres companyes de professió que he notat aquesta dificultat afegida que hi ha per a nosaltres.

Ets una ferma defensora que tota la important feina tècnica que fa el teu camp es perd sense una estratègia de comunicació divulgativa i clara.

Sí. La comunitat científica i tecnològica està molt mobilitzada per compartir el seu treball, però és com que parlem només per nosaltres. Després de cofundar T3chFest (que va acostar el treball del seu camp a no experts) ens en vam adonar que a la gent li agradaven aquests temes perquè podia entendre’ls sense tenir un alt nivell tècnic. M’interessa ser divulgativa perquè la gent no té ni idea de com funciona la tecnologia però cada dia fa servir el mòbil. Si no s’expliquen, és difícil que vegin les oportunitats de la IA.

¿Quins usos positius poden crear aquests sistemes?

Són eines molt potents per automatitzar tasques repetitives i mesurar coses que abans no podíem veure. En la medicina ens pot ajudar a triar el millor tractament basant-nos en les xifres, no en el biaix del metge, i agilitar certs processos perquè els investigadors se centrin en quin requereix més atenció. La col·laboració humà-màquina és la clau de la IA, un aporta l’ètica i l’altra l’automatització.

A més, amb les seves fallades permet que revaluem com ens hem comportat tots aquests anys. Quan es diu que els algoritmes tenen biaixos racistes o contra les dones és perquè els arrosseguen de la nostra societat. Saber-ho ens permet canviar-ho.

Si fem servir dades del passat per preveure el futur es corre el risc de perpetuar discriminacions racistes, misògines i classistes. ¿Com ho podem evitar?

Només hem vist la punta de l’iceberg. Aquests escàndols continuaran passant i que es denunciï com els algoritmes poden amplificar aquestes discriminacions ens ajudarà a reflexionar per canviar aquests costums. Es pot començar tenint una base de dades més inclusiva, però haurem d’analitzar-ho quan aquests sistemes es posin al servei de la gent. Fins que no opera en un entorn real no ets conscient de la veritable efectivitat de l’algoritme.

Parlem molt de sobirania digital, però acabem recorrent als sistemes de gegants tecnològics com Amazon, Google o Microsoft. ¿No s’alimenta així una asimetria de poder que ens fa més vulnerables?

Desenvolupar una infraestructura pròpia és una cosa massa costosa. Aquestes empreses ofereixen llogar el seu servei de núvol (els ordinadors treballen amb centres de dades externes que permeten augmentar la seva potència) i no ho veig malament per començar, però ens falta construir alternatives. No ens hem plantejat com treballar fins que hem vist la importància que tenen les nostres dades, i llavors ja era massa tard.

Quan són caçades amb males pràctiques aquestes grans plataformes solen culpar un «error» de l’algoritme, el que la matemàtica i científica de dades Cathy O’Neil va anomenar ‘Math washing’. Un cap de turc abstracte que evita assumir responsabilitats. ¿Estan fent un ús pervers de la IA?

Sí, és més fàcil culpar un sistema que a tu mateix. Rere els algoritmes hi ha humans, si aquest falla el que fa és exposar que està sent injust. El responsable és l’humà tot i que es vulgui culpar la màquina.

La IA predictiva no només llegeix les dades sinó que elabora patrons per inferir el nostre comportament futur. ¿Això no amenaça l’autonomia humana?

Hem de ser conscients dels perills d’aquests sistemes i parlar més de justícia algorítmica. Hi ha algoritmes que no tenen impacte directe en els humans i altres que ens poden afectar en el dia a dia, com els que s’utilitzen per determinar ajudes socials o un tractament mèdic. Però també hem de ressaltar el seu impacte positiu. La col·laboració entre l’humà i la màquina pot fer que les nostres anàlisis siguin més potents i, per exemple, detectar malalties amb una precisió molt més gran. No tenim aquest concepte de col·laboració al cap, pensem que les màquines ens substituiran i la clau és que ens complementin per veure coses que nosaltres no veiem.

La Unió Europea prepara una llei per prohibir els sistemes d’IA d’alt risc.

La IA s’ha de regular i la UE ens pot donar un marc d’exemple per centrar-nos més en el factor humà. És interessant que es categoritzi els sistemes d’IA per risc i es creïn auditories per examinar aquests sistemes. Però després s’ha de veure si es poden implantar.

Notícies relacionades

Com hem vist amb la protecció de dades, Europa ja té normes pioneres però la indústria les incompleix perquè li surt més a compte pagar les multes. ¿Què més fer?

No crec que s’hagi fet malament. En el món tecnològic tot és tan recent que és difícil saber què passarà. Per algun lloc s’ha de començar a limitar. Espero que sapiguem reaccionar però no tinc respostes.