Àgora Opinió Basada en interpretacions i judicis de l’autor sobre fets, dades i esdeveniments.

3
Es llegeix en minuts
Sospitosos per la cara

Epi_rc_es

Desbloquejar el telèfon, etiquetar amics a les xarxes socials o accedir a una empresa o universitat. Totes aquestes accions poden fer-se ja a través del reconeixement facial, una tecnologia que recull, processa i analitza les nostres dades biomètriques, en aquest cas els trets de la cara. L’ús d’aquesta tecnologia, que tan còmoda resulta per a la vida quotidiana, suposa, no obstant, greus perills als espais públics: pot ser utilitzada, per exemple, per les forces de seguretat per analitzar qui assisteix a una manifestació, pot servir per discriminar i criminalitzar persones en funció del seu color de pell o el seu gènere i pot suposar senzillament la vigilància massiva i indiscriminada de la població, de manera preventiva i sense cap justificació.

Just ara és més necessari que mai obrir un debat social sobre l’ús d’aquesta tecnologia per dues raons: perquè s’estan conformant els nous governs municipals i la instal·lació de càmeres s’ha presentat com la panacea contra la percepció d’inseguretat; i perquè es debat el nou reglament europeu sobre la IA, la AI Act. Molts governs volen introduir aquests sistemes de vigilància als espais públics per reduir la criminalitat. Sense anar més lluny, l’Ajuntament de Barcelona instal·larà 17 càmeres intel·ligents al passeig de Gràcia i algunes més al Palauet Albéniz. Però el cert és que no hi ha cap estudi científic que demostri que aquesta tecnologia ha ajudat a prevenir cap atemptat terrorista o a millorar la seguretat ciutadana. El que hi ha és una bona tasca de màrqueting de les empreses que les venen, i molts casos reportats, en canvi, de greus violacions de drets humans relacionades amb el seu ús.

El juny del 2020, agents de la policia de Nova York van intentar detenir l’activista de Black Lives Matter Derrick Ingram, sense cap ordre de detenció formal, i després d’acusar-lo d’una suposada agressió utilitzant el reconeixement facial per rastrejar els seus moviments. També s’ha fet servir aquesta tecnologia de manera retroactiva per identificar el responsable d’un robatori en una empresa francesa. El sistema de reconeixement facial va generar una llista de 200 possibles sospitosos i un d’ells va ser acusat per la policia i sentenciat a més d’un any de presó, malgrat no haver-hi cap prova física que el relacionés amb el delicte.

Entretots

Publica una carta del lector

Escriu un post per publicar a l'edició impresa i a la web

Drets fonamentals

Notícies relacionades

No es tracta només d’un problema d’activistes i defensors dels drets humans. El reconeixement facial comet errors, viola la privacitat de la ciutadania i coarta la seva llibertat de moviments. La vigilància massiva que propicia aquesta tecnologia, i que es nodreix d’una informació tan personal, sensible i irreemplaçable com el nostre rostre o la manera com vestim, posa en risc drets fonamentals. Tot i que la majoria estem convençuts que no tenim res a ocultar, i en un sistema democràtic no hauríem de tenir por de com s’utilitzin les nostres dades, la realitat és que els governs autoritaris s’estenen per tot el món, i les empreses de tecnologia ja han demostrat que salvaguardar la democràcia no s’anteposa als seus comptes de resultats.

Tot i que el nou calendari electoral canvia moltes agendes, el Govern espanyol hauria d’assumir la presidència del Consell Europeu l’1 de juliol. Més de 60 organitzacions de drets humans, en línia amb moltes altres d’europees i internacionals, li hem demanat que la nova legislació de la IA garanteixi la protecció dels drets fonamentals, i inclogui la prohibició total del reconeixement facial en espais públics. Només així evitarem que ens converteixin en sospitosos per la cara.