Secció recomanada per

Mesura pionera i polèmica

La llei de la intel·ligència artificial, en la recta final: aquests són els riscos que la UE vol regular

190-tesla-uoc

190-tesla-uoc

4
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

La Unió Europea (UE) ultima la primera llei del món que regularà la intel·ligència artificial (IA). El 14 de juny, l’Eurocambra va fixar la seva posició i va donar llum verda a una mesura pionera que té com a missió controlar el desplegament d’aquesta tecnologia emergent, fixant normes més o menys estrictes depenent del nivell de risc que comporti el seu ús. Malgrat comptar amb una àmplia majoria, el text aprovat encara no és el definitiu. La seva versió final dependrà de les negociacions amb el Consell Europeu, integrat pels caps d’Estat i de Govern dels Vint-i-set, una decisió que s’espera que arribi abans de finalitzar aquest any.

La llei es va començar a gestar el 21 d’abril del 2021. Va ser llavors que la Comissió va proposar regular la IA per prohibir sistemes com la identificació biomètrica o la puntuació social, susceptibles de danyar els drets humans. Aquesta preocupació ha centrat gran part de les negociacions entre els legisladors. Així, el document segellat al juny opta per classificar aquesta tecnologia en funció del potencial impacte del seu ús. Hi ha quatre categories segons el tipus de risc: inacceptable, alt i baix o mínim.

El reglament vetarà tots els sistemes que suposin un «risc inacceptable» i una «amenaça per a les persones». Segons el que proposa el Parlament Europeu, és el cas de la vigilància policial predictiva o del reconeixement facial. Aquest últim quedarà restringit quan sigui en temps real (al contrari del que demanava el Partit Popular Europeu), però es continuarà permetent a posteriori als espais d’accés públic. Més de 155 organitzacions en defensa dels drets humans, entre aquestes Amnistia Internacional, han exigit una prohibició total de la identificació biomètrica.

Usos permesos

Els altres usos de la IA seran permesos, si bé s’hauran de sotmetre a diferents graus de control. Els més estrictes seran per als sistemes de «risc alt», els que «afectin negativament la seguretat o els drets fonamentals» dels usuaris. L’etiqueta engloba les eines que s’apliquin en àmbits com l’educació, l’ocupació o la gestió d’infraestructures crítiques. Per evitar danys, s’hauran d’avaluar abans de comercialitzar-se, s’hauran de registrar en una base de dades comunitària i hauran de complir criteris de transparència. L’Eurocambra inclou aquí els algoritmes de recomanació de contingut, el que intensificaria l’escrutini a les grans plataformes d’internet que els utilitzen, des d’Instagram i Google a TikTok i Youtube.

No obstant, el text també desperta no poques controvèrsies. Una coalició de més d’un centenar d’oenagés han denunciat que l’article 6 introdueix un «buit legal» que permetria a les empreses d’IA decidir si els sistemes que han desenvolupat haurien de ser regulats com d’«alt risc». «Si això s’aprova, la llei serà inútil», explica Caterina Rodelli, analista d’Access Now, a EL PERIÓDICO. També alerten que els 27 membres del club comunitari –representats pel Consell Europeu– pressionen en les negociacions perquè l’ús d’IA en el control defronteres no s’hagi de cenyir a les mateixes regles de transparència.

IA generativa

¿Què passarà amb ChatGPT? Segons la posició adoptada pel Parlament Europeu, les eines d’IA generativa com el xatbot desenvolupat per OpenAI figuren dins de la categoria de «risc limitat». Aquestes únicament hauran de complir obligacions de transparència i identificar clarament els continguts generats artificialment. «Els usuaris han de ser conscients que estan interactuant amb una màquina per poder prendre una decisió informada sobre si continuar o fer un pas enrere», diu el text. La intenció d’aquesta mesura és evitar la proliferació de falsificacions.

La pressió d’OpenAI hauria ajudat a modificar un esborrany inicial de la llei que classificava les IA de «propòsit general» com ChatGPT dins de la categoria de «risc alt», segons documents obtinguts per la revista Time. Això hauria permès a aquesta companyia emergent, participada per Microsoft, esquivar més restriccions i exigències.

La llei també obligarà les empreses que han creat aquestes eines a revelar si han sigut entrenades amb material protegit pels drets d’autor. Al principi, membres del comitè legislatiu que ha redactat la proposta van demanar prohibir per complet aquest ús sense consentiment, però finalment es va imposar el requisit de transparència.

Debat en joc

Notícies relacionades

Finalment, en l’esglaó més baix hi haurà la IA que suposa un «risc mínim» o cap risc. Aquesta categoria inclou la gran majoria de sistemes desplegats a la UE, des dels filtres automàtics de correu brossa (spam, en anglès) als videojocs que utilitzen aquesta tecnologia.

«La llei busca frenar les externalitats negatives de la IA, però regular aviat també pot frenar usos beneficiosos», apunta l’analista tecnològic Antonio Ortiz. «La UE està en ple debat sobre com regular ràpid i ser alhora una potència tecnològica, perquè la seva posició en el desenvolupament de sistemes d’IA no és gaire bona».