31 d’oct 2020

Anar al contingut

Patrocina:

ENTREVISTA

Catherine D'Ignazio: «S'està donant un ús racista, sexista i classista a les dades»

Professora d'Urbanisme de l'Institut de Tecnologia de Massachussets

ESTEL ESTOPIÑAN

Catherine D'Ignazio: «S'està donant un ús racista, sexista i classista a les dades»

Catherine D’Ignazio és professora d’Urbanisme de l’Institut de Tecnologia de Massachussets (MIT, per les seves sigles en anglès), directora de Data+ Feminism Lab i col·laboradora de Digital Future Society. Acaba de publicar, al costat de Lauren Klein, el llibre Feminisme de Dades, en el qual mostra la seva crítica sobre la recopilació, tractament i presentació que es fa avui dia de les dades davant de l’opinió pública.

Vostè defensa un feminisme de dades, ¿què és exactament? Denominem Feminisme de Dades (Data Feminism) una part creixent del treball de corporacions i administracions que estan donant un ús racista, sexista i classista a l’ús de les dades. Algoritmes de contractació que degraden per l’origen, sistemes de detecció de rostres que no poden veure dones de color, algoritmes de recerca que estereotipen negativament nenes negres... El que jo anomeno Feminisme de Dades denuncia aquestes anàlisis de dades que provenen de l’heteropatriarcat, el racisme i el colonialisme.

Llavors, ¿estem recollint erròniament les dades o les estem tractant malament? Hi ha gent que està recollint i analitzant bé les dades, tot i que certament no és la norma general. Els problemes comencen, fins i tot, abans de recollir les dades perquè moltes vegades aquesta recopilació no és completa. Una vegada que tenim les dades, sovint no les desglossem en categories –sexe, gènere, raça, ètnia, etc– per poder analitzar importants patrons de desigualtat. I, finalment, quan comuniquem dades o construïm algoritmes moltes vegades prioritzem els desitjos de la majoria sobre les necessitats de les persones més vulnerables.

¿Quins grups estan sent més discriminats? Els grups minoritzats són aquells que són activament discriminats i subjugats.  Per exemple, les dones, que malgrat ser la majoria de la població són un grup minoritari. La recopilació, el manteniment i la utilització de les dades és costosa i qui treballa en aquesta activitat són identitats dominants: homes, blancs, l’elit i els cisgènere. Això crea un risc de privilegi: una molt petita subsecció de la població està recollint dades i dissenyant eines per a una majoria que no s’estableix en la intersecció de totes aquestes identitats.

¿Pot donar-nos alguns exemples de mala recopilació i tractament de dades? El meu col·lega al MIT Joy Buolamwini ha estat demostrant el fracàs de la tecnologia d’anàlisi facial per a les dones de pell més fosca. Al seu article Gender Shades, Boulamwini explica que els conjunts de dades de referència en què es basa el software de detecció facial estan formats per més del 80% de rostres blancs i d’homes. Per tant, aquests programes fallen per a moltes persones, i en particular per a les dones negres i de pell més fosca.

¿Algun exemple més? Just fa un parell de setmanes un home negre a Detroit va ser identificat erròniament com a autor d’un delicte greu pel software de reconeixement facial. Va ser emmanillat i arrestat a casa seva, davant les seves dues filles, i va passar 30 hores a la presó per un crim que no va cometre.

¿Què hem de fer per tenir millors dades? En el Feminisme de Dades esbossem una sèrie de principis per fer les coses millor, com examinar i desafiar el poder, abraçar el pluralisme i qüestionar les jerarquies, considerar el context o fer visible el treball.

La intel·ligència artificial i els algoritmes estan molt de moda, ¿com els afecta tot això? Els algoritmes i la intel·ligència artificial estan realitzant operacions matemàtiques com comptar, agrupar, classificar i altres. Sense una acurada atenció a les definicions de justícia, igualtat i equitat, els resultats afavoreixen els grups majoritaris sobre els més petits i també els que han sigut perjudicats al llarg del temps.