UNA TECNOLOGIA AMB LIMITACIONS

Els goril·les encara despisten Google Photos

Dos anys després que el sistema confongués un home afroamericà amb un simi, la companyia bloqueja etiquetes per evitar que es reprodueixi l'error

ealos22923021 junio 2011 ruanda  gorilas en la foto una madre con su cria 180115211858

ealos22923021 junio 2011 ruanda gorilas en la foto una madre con su cria 180115211858

1
Es llegeix en minuts
Ernest Alós

Ja fa dos anys, Google va haver de reconèixer que el seu servei Google Photos, que organitza a partir d’un algoritme teòricament intel·ligent les imatges que els seus usuaris confien al núvol en carpetes temàtiques, o permet fer recerques entre elles, tenia algun error que el feia actuar com el més obtús dels hooligans racistes. Un desenvolupador de software afroamericà va mostrar que el servei identificava els seus selfies i els dels seus amics de pell fosca com a goril·les. Llavors la companyia va prometre solucionar el problema, però segons ha comprovat la revista Wired, al cap de dos anys encara no ha aconseguit refinar el sistema: de moment, l’única forma d’evitar l’error és impedir-li que busqui, identifiqui i agrupi fotos amb etiquetes com «goril·la», «simi» i «mico».

Filtrar resultats

La revista ha verificat Google Photos utilitzant una col·lecció de 40.000 imatges d’animals. Amb els termes anteriors no apareix cap resultat, però en canvi sí que s’han mantingut utilitzables les recerques d’altres parents més llunyans de l’home que la màquina és capaç de diferenciar, com orangutan, gibó o tití. Un portaveu de Google ha admès que «la tecnologia d’etiquetatge d’imatges està encara als seus inicis i desafortunadament no s’acosta a la perfecció». Així que val més pecar de prudents. L’exclusió de les etiquetes polèmiques funciona tant en anglès com en altres llengües. I també filtra els resultats del terme «negre» per evitar desastres imperdonables: una recerca amb aquest terme pot oferir com a resultats des de captures de pantalles en negre fins a fotos en blanc i negre o taràntules, però passa per alt tant simis com persones.

Notícies relacionades

    

El filtre, quan s’equivoca, no tan sols ho fa per un possible biaix racial dels seus programadors: mentre que aconsegueix identificar amb notable precisió les imatges en què apareixen bicicletes, ruïnes o fotos d’aniversari, decideix en canvi que un ànec és un gos. O un escriptor fotografiat enmig d’una planta enfiladissa, una flor.