Ètica tecnològica

L’alternativa europea a l’ús de la intel·ligència artificial

  • La pionera normativa europea que prohibeix l’ús de sistemes de vigilància massiva i reconeixement facial marca una alternativa als EUA i la Xina

  • Malgrat aplaudir la mesura, experts adverteixen dels perills que la regulació no s’apliqui en casos de seguretat ni en tecnologia militar

zentauroepp44367668 european competition commissioner margrethe vestager address190405131751

zentauroepp44367668 european competition commissioner margrethe vestager address190405131751 / YVES HERMAN

4
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Enviar un correu electrònic, veure una sèrie en ‘streaming’ o buscar un restaurant al mapa del mòbil. Tot i que potser et continuï semblant ciència-ficció, la intel·ligència artificial (IA) és present en cada vegada més aspectes de la nostra vida. Des de fa anys, la capacitat de dotar les màquines d’un cervell informàtic amb el qual aprendre ha obert un gran ventall de possibilitats per transformar les societats del futur. No obstant, aquesta gran oportunitat d’aquesta tecnologia suposa també un gran risc que ha portat la Unió Europea (UE) a actuar.

L’IA ha sigut clau per a l’aparició de les xarxes socials, modelar la nova economia digital i donar vida a idees que abans semblaven impossibles. Els sistemes de ‘software’ intel·ligent estan més dotats que els humans per processar les ingents quantitats de dades que generem cada vegada que obrim el mòbil o l’ordinador i extreure patrons de conducta. Això permet a les màquines grans avenços, com accelerar complexos processos científics i industrials, estalviar energia o impulsar els vehicles intel·ligents, però també conèixer-nos millor que nosaltres mateixos.

El progrés de l’IA comporta també potencials perills. No en forma de fantasies robòtiques com les de ‘Terminator’ o ‘Blade Runner’, sinó de fórmula matemàtica: els algoritmes. La seva capacitat de traduir milions de dades en respostes ha fet que creixi el seu ús per decidir si una empresa contracta un empleat, si un banc concedeix un préstec a un client o si es concedeix el permís penitenciari a un pres, cosa que ja passa a Catalunya. Les dades utilitzades poden presentar biaixos racistes o sexistes, que l’algoritme acaba amplificant.

Discriminació amplificada

Als Estats Units ja s’han viscut casos de ciutadans negres arrestats injustament per sistemes de reconeixement facial defectuosos. Als Països Baixos el sistema d’IA que havia d’identificar casos de frau en la percepció d’ajudes socials va assenyalar erròniament 30.000 ciutadans d’origen immigrant i els va retirar el dret al subsidi. Al Regne Unit l’algoritme que havia de substituir les proves d’accés a la universitat va penalitzar greument els millors alumnes de les àrees més humils.

Aquests problemes de discriminació també han arribat a Espanya. Aquest febrer, Renfe va posar en marxa un projecte de reconeixement facial per classificar els viatgers per edat, gènere, origen ètnic i estat d’ànim. Davant aquest escàndol, un grup de 70 acadèmics van demanar al Govern paralitzar l’ús d’aquesta tecnologia. «Decidir el futur partint de dades del passat serveix per consolidar injustícies estructurals, si negues un préstec a un col·lectiu perquè és estadísticament més morós el que fas és perpetuar aquest estigma», assenyala Ariel Guersenzvaig, professor de l’Elisava i un dels promotors d’aquesta petició.

Regulació europea

És en la prevenció d’aquests creixents perills on la UE vol destacar en la pugna global pel domini de l’IA. Dimecres passat la Comissió Europea va presentar una proposta de normativa que regula l’ús d’aquesta tecnologia i la prohibeix per als casos que comporten un risc més gran. Es refereix als sistemes de vigilància massiva, de modificació del comportament humà i de la identificació biomètrica (que capta dades úniques i privades com la cara, la veu, la retina o l’empremta dactilar). La tecnologia militar, no obstant, queda fora d’aquesta regulació.

En cas d’incomplir-se el que s’ha establert, les empreses que operin a sòl europeu s’arrisquen a sancions de fins a 30.000 euros o el 6% de la seva facturació anual. Tot i que la proposta és un avenç pioner mundial en la regulació d’aquestes tecnologies, els experts adverteixen que, com ja succeeix amb la llei general de protecció de dades (GDPR, en anglès), això no garanteix que s’apliqui. «Creem lleis que després ningú controla», adverteix Gemma Galdón, directora d’Eticas Consulting i auditoria d’algoritmes. «La normativa és una molt bona notícia, perquè s’obligui al compliment de la llei, però les agències de protecció de dades tenen molt poc finançament i la indústria s’ha posat de perfil per boicotejar-les».

Brussel·les parla d’un «risc inadmissible», però alhora deixa la porta oberta a un ús excepcional de l’IA per a casos de seguretat, delictes o prevenció terrorisme, una cosa que intriga els experts. «Hi ha potencials llacunes que ens preocupa que puguin ser explotades», ha advertit Catelijne Muller, membre del mateix comitè d’experts que ha assessorat la CE. A més, no hi ha evidències científiques que recolzin que les correlacions que extreuen els algoritmes de vigilància serveixin per garantir més seguretat. «¿I si Hongria se serveix d’això per perseguir els periodistes?», es pregunta Guersenzvaig, especialista en ètica i intel·ligència artificial. «Pot ser un pendent relliscós».

Alternativa als EUA i la Xina

Notícies relacionades

Amb aquesta regulació de caràcter ètic, la UE busca situar-se com a alternativa a les polítiques de fets consumats de les grans tecnològiques dels Estats Units i Xina, que estan marcant el camí. «Els drets que se cedeixen amb l’excusa de desenvolupar noves tecnologies són molt difícils de recuperar», adverteix Sergio Carrasco Mayans, advocat expert en privacitat. És per això que prohibeix els distòpics sistemes de crèdit social que aplica el gegant asiàtic –que puntuen els ciutadans en funció del seu comportament públic– i limita el ‘lobby’ de Silicon Valley.

En la pugna global per un sector cada vegada més omnipresent, l’Administració Biden s’està inclinant cap a un model europeu no exempt de contradiccions. «La tragèdia d’Europa és que crea un marc regulador que és una referència mundial, però al seu torn continua subvencionant un ecosistema empresarial que no incorpora aquests valors», apunta Galdón. L’impuls de l’IA va en paral·lel a la creixent preocupació i escrutini de la ciutadania. «Sense mecanismes de control acaba sent la societat civil qui porta aquests casos als tribunals».