Mobile World Congress

Catalunya crida a un ús ètic de la intel·ligència artificial

  • L’Autoritat Catalana de Protecció de Dades analitza els perills, reptes i oportunitats per al desenvolupament d’aplicacions amb algoritmes més justos

  • Seguiu aquí en directe totes les tendències i novetats del MWC

Catalunya crida a un ús ètic de la intel·ligència artificial

APDCAT

1
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en Xarxes, algoritmes i la intersecció entre política i tecnologia

Ubicada/t a Barcelona

ver +

L’ús de la intel·ligència artificial (IA) per automatitzar o complementar decisions humanes és cada vegada més habitual. Aquests sistemes s’utilitzen per a tasques tan dispars com determinar l’assignació d’ajudes públiques, la concessió de crèdits bancaris i fins i tot per ajudar a calcular el risc de reincidència dels presos, com passa a Catalunya. No obstant, les màquines no són perfectes i poden reproduir tot tipus de biaixos presents a les bases de dades de les quals es nodreixen. Així, s’han vist casos en els quals els algoritmes amplifiquen discriminacions classistes, sexistes o racistes que perjudiquen directament els ciutadans.

És per això que l’Autoritat Catalana de Protecció de Dades (APDCAT) ha aprofitat la celebració del Mobile World Congress (MWC) per fer una crida en favor del desenvolupament d’aplicacions ètiques d’aquests sistemes i per alertar dels seus potencials perills. «No podem apreciar l’impacte ni els riscos que amaga perquè la IA transforma el món d’una forma sense precedents», ha assenyalat Meritxell Borràs, directora de l’organisme públic.

Notícies relacionades

En el plafó, ubicat a la zona del 4YFN, també ha participat Ricardo Baeza-Yates, director d’Investigació a l’Institut de IA Experiencial de la Universitat Northeastern a Silicon Valley, que han remarcat els desafiaments que té aquest disseny ètic dels algoritmes: que hagin de complir uns principis establerts, que estiguin regulats per una normativa i que donin cabuda a les diferències culturals. I és que part dels biaixos que poden amplificar els algoritmes ja són presents a les bases de dades. És per això que aquestes bases no només han de ser representatives de tota la societat, sinó que també han de ser més justos per no reproduir discriminacions o estereotips del passat.

Entre els potencials mals usos de la IA destaca l’ús indiscriminat de sistemes de videovigilància, el reconeixement facial i el control del comportament social. La legislació en la qual treballa la Unió Europea (UE) busca regular aquesta tecnologia amb la prohibició d’aquests usos, a més de l’ús de dades biomètriques. No obstant, diversos experts han denunciat que la nova llei europea deixa fora de la regulació la tecnologia militar. El Govern d’Espanya i l’Ajuntament de Barcelona també han pres mesures per garantir una supervisió pública més gran dels algoritmes i un ús ètic de la IA.