Tecnologia i vigilància

El Govern d’Espanya i la Generalitat utilitzen algoritmes que poden ser discriminatoris

  • Les dues institucions recorren a l’automatització per determinar ajudes a l’atur, detectar denúncies falses o predir la reincidència de presos

  • Eticas Foundation llança una base de dades que recull 100 casos en què l’ús d’aquests sistemes comporta riscos socials no intencionats

El Govern d’Espanya i la Generalitat utilitzen algoritmes que poden ser discriminatoris
2
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Els algoritmes ja afecten la vostra vida. Els utilitzen gegants tecnològics com Google, Facebooko TikTok per conèixer-vos millor, recomanar-vos contingut i predir les vostres accions. Però també els utilitzen cada cop més governs i administracions públiques de tot el món per agilitar processos tan importants com la concessió d’ajudes a l’atur o la detecció de casos de Covid-19.

Els algoritmes són les fórmules matemàtiques que els ordinadors utilitzen per prendre decisions. No obstant, aquestes decisions no són neutrals, sinó que es fonamenten en dades recopilades per humans que poden comportar un biaix (racista, de gènere o socioeconòmic, entre altres) i traduir-se en conseqüències no volgudes com una vigilància perpètua dels ciutadans o una discriminació més gran que perjudica especialment les minories.

¿I si l’algoritme us acusa injustament de frau i us nega accés a les ajudes socials? ¿I si recompensa les notes de la selectivitat de només els estudiants dels barris rics? Això ja ha passat tant als Països Baixos com el Regne Unit.

¿Discriminació a Espanya?

¿Discriminació a Espanya?Aquesta mena de discriminació també està passant a Espanya i Catalunya. A més dels algoritmes creats per grans companyies com Twitter, Netflix, Microsoft i Uber, les institucions públiques espanyoles també recorren a uns sistemes que tenen potencials perills no intencionats per al ciutadà. És el cas de la Generalitat catalana, que utilitza un algoritme (Riscanvi) per calcular el risc de reincidència dels presos i que pot generar una discriminació socioeconòmica, o el Ministeri de l’Interior, que ha creat un algoritme per detectar els missatges d’odi a Twitter i que pot vulnerar drets fonamentals per vigilar els ciutadans.

Malgrat el seu profund impacte en les nostres vides els algoritmes són opacs i tenen poca supervisió. És per això que l’entitat Eticas Foundation ha posat en marxa l’Observatori d’Algoritmes amb Impacte Social (OASI), que reuneix en una base de dades (que podeu consultar aquí) més de 100 casos de tot el món en què l’ús d’algoritmes està tenint uns efectes socials perjudicials no volguts. El projecte identifica aquests casos en un cercador amb la intenció de ser accessible al públic i conscienciar sobre la necessitat d’auditar algoritmes.

Notícies relacionades

A més dels casos esmentats, OASI també assenyala uns altres dos algoritmes potencialment perillosos al territori: el que utilitza la Policia Nacional per detectar denúncies falses i el que fa servir el Servei Públic d’Ocupació Estatal (SEPE) per determinar ajudes socials als aturats.

OASI categoritza els tipus d’impactes que produeixen en set apartats: discriminació (racial, de gènere, socioeconòmica o religiosa), vigilància de l’Estat, polarització/radicalització, amenaça a la privacitat, manipulació del comportament, generació d’addicció i propagació de desinformació. Un impacte doblement perillós, ja que l’estès mite que les màquines són portadores d’una veritat racional i matemàtica fa que, la majoria de vegades, les seves conseqüències negatives quedin ocultes.