EN COL·LABORACIÓ AMB SILICON VALLEY

¿Desert o nu? La intel·ligència artificial encara no els sap distingir

La Policia londinenca treballa en un 'software' per rastrejar fotos de delictes d'abusos sexuals, però encara comet errors

desxierto

desxierto

1
Es llegeix en minuts
El Periódico

La policia londinenca confia a tenir a punt una intel·ligència artificial (IA) capaç de detectar imatges pornogràfiques i d'abusos sexuals a nens en un parell d'anys. Per a això, estan desenvolupant un software de reconeixement de fotos. No obstant, encara ha de millorar molt, ja que aquesta IA encara no és capaç de diferenciar entre la foto d'un desert i un nu

Tal com ha informat el rotatiu britànic The Telegraph, el departament forense digital de la Policia Metropolitana de Londres va analitzar l'any passat 53.000 dispositius a la recerca de proves incriminatòries, però el programa encara no és prou sofisticat per detectar tota classe d'arxius pornogràfics. "Hem de classificar les imatges porno per a diferents sentències, i aquesta feina l'han de fer persones de moment", ha informat Mark Stokes, cap forense digital del departament. 

No és pell, és sorra

Per ara el software que utilitza la policia ja distingeix imatges de drogues, armes i diners. Però quan analitza nus, falla. "A vegades, quan es tracta d'un desert, el programa creu que és una imatge porno", ha detallat Stokes.

El cap policial assegura que revisar els dispositius a la recerca de fotos delictives és "mentalment esgotador", i per tant confia a poder "descarregar" aquesta tasca en "màquines insensibles". 

Notícies relacionades

Stokes ha explicat a The Telegraph que el seu departament està treballant amb "proveïdors de Silicon Valley" per ajudar a entrenar la IA. 

Segueix Extra en Facebook