Tecnologies de futur

Fre al masclisme i al racisme en la intel·ligència artificial

Col·lectius de dones reclamen més paper en el disseny d'aplicacions per evitar sexismes

La Unió Europa, Espanya i Nova York han creat comitès per guiar els criteris dels sistemes de decisió automàtica

zentauroepp42521929 konya  turkey   march 15   an early test robot is displayed 180318171357

zentauroepp42521929 konya turkey march 15 an early test robot is displayed 180318171357 / Chris McGrath

4
Es llegeix en minuts
Carmen Jané
Carmen Jané

Redactora

Especialista en Periodista especialitzada en tecnologia, continguts digitals i elearning. Escric des de Última Hora.

ver +

Quan Apple va llançar la seva aplicació de Salut per al seu mòbil i el seu rellotge, no va tenir en compte una cosa tan bàsica per a una dona com el cicle menstrual. Ho recorda Susana Duran, directora d’innovació de Sage i membre de Women in Mobile, com un dels exemples de per què les dones han de participar més en el disseny tecnològic, no només de productes sinó del futur, per lluitar contra la «testosterona digital».

També les minories ètniques i socials pateixen la dictadura del biaix, interpretacions fetes per màquines sobre com ha de ser la realitat. Els algoritmes de Google han arribat a confondre cares de persones negres amb simis, a associar noms habituals en el col·lectiu amb anuncis d’advocats criminalistes o a vincular recerques sobre dones de minories amb pornografia. I quan se li demana un nadó, sempre és blanc i si és nena, va vestit de rosa. Una llengua amb un gènere masculí que engloba també el femení (com el castellà o el català) donarà més preeminència als homes, si ningú es molesta a aplicar un correctiu lògic, recorden els científics de DeepMind, la divisió d’intel·ligència artificial de Google.

Diversos llibres i estudis científics han tornat a incidir els últims dies sobre les preguntes clau de la intel·ligència artificial: ¿seran els algoritmes capaços de reflectir la diversitat de les societats actuals? ¿Tindrà valors la intel·ligència artificial? I ¿seran els nostres valors?

Manifestos científics

La pregunta se l’han fet no només els científics, que ja van impulsar un manifest amb més de 700 firmants el 2015 i la Declaració de Barcelona, entre altres, a favor d’una intel·ligència artificial que tingui en compte els humans, sinó també des de diversos organismes. La Unió Europea està reunint un grup d’experts per debatre sobre la qüestió, Espanya ja té el seu i fins i tot l’Ajuntament de Nova York ha anunciat una task force per guiar els criteris dels «sistemes de decisió automàtica», el primer als Estats Units. 

A l’acadèmia s’han alçat veus que demanen més pluralitat i transparència (que s’evitin les anomenades caixes fosques on ningú sap què passa realment) i que els algoritmes responguin al bé comú. «Els algoritmes són opinions incrustades en un codi», sosté Cathy O’Neill, matemàtica i autora del llibre Armas de destrucción matemática (Capitán Swing, 2018), un assaig que planteja com els dissenys dels programes afecten les vides de les persones. 

«El big data no elimina els biaixos, només els camufla amb tecnologia», sosté O’Neill. El seu llibre recull exemples sobre casos en assegurances, hipoteques, índexs de criminalitat i selecció de treballadors en què els criteris no son clars. «Els algoritmes recullen prejudicis humans i tendeixen a castigar el pobre i els oprimits de la nostra societat mentre fan el ric encara més ric», sosté O’Neill. També una professora de la facultat de Periodisme de la Universitat de Carolina del Sud (USC), Safiya Umoja Noble, en un avançament del seu llibre Algoritmos de opresión, planteja el mateix dilema sobre com les recerques a Google reforcen el racisme i la misogínia, i els anuncis tenen alguna mena d’influència en els resultats.

Diverses oenagés observen el tema amb un enorme recel, com per exemple és el cas de l’alemanya Algorithm Watch, que estudia els criteris dels programes d’avaluació de riscos a l’ahora de concedir crèdits bancaris a Alemanya (Schufa) que rebutgen, segons afirmen, un de cada nou clients.

Problemes de mètode

«Els programes d’intel·ligència artificial s’entrenen fent servir dades concretes. Si aquestes dades van en una sola direcció, les conclusions seran clarament esbiaixades», explica Ulises Cortés,  cap del grup d’Intel·ligència Artificial del Barcelona Supercomputing Center. «La capacitat de generalització és típica de la intel·ligència humana i, per tant, tot aprenentatge és esbiaixat. Ara hi ha com una nova moral que exigeix a les màquines que facin millor les coses que les persones, i això no és així», admet.

Notícies relacionades

Cortés recolza regular la intencionalitat dels algoritmes, tot i que admet que, com a científics, els complica molt la vida. «Si no tens escrúpols i la teva finalitat és comercial, endavant, però si vols ser coherent amb els valors ètics i legals d’una democràcia europea, convé tenir en compte moltes variables al definir un algoritme. Tot i que tampoc els humans canviem les nostres preferències per la simple reflexió».

«Si el sistema s’entrena amb fotos de gent majoritàriament blanca, serà molt difícil que reconegui cares no blanques», sosté Kate Crawford, investigadora de Microsoft i directora de l’AI Now Institute, de la Universitat de Nova York. La institució, en què participen científics de diversos centres dels Estats Units, aconsella que no es facin servir a les institucions públiques algoritmes que no siguin transparents i demana que els sistemes es provin abans en diferents contextos i situacions per fer-los més eficients.