Tecnologia i drets humans

Un centenar d’entitats exigeix a la UE una regulació estricta de la Intel·ligència Artificial

  • Fins a 120 organitzacions civils adverteixen que els sistemes algorítmics estan amplificant «desigualtats socials» i «vigilància massiva» a Europa

Cámara de seguridad de un hotel

Cámara de seguridad de un hotel / RICARD CUGAT (Bcn)

2
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en Xarxes, algoritmes i la intersecció entre política i tecnologia

Ubicada/t a Barcelona

ver +

La Intel·ligència Artificial (IA) està expandint-se a cada vegada més racons de la nostra vida. Tot i que la tecnologia és neutra i depèn de l’ús que se li doni, el desplegament sense supervisió de sistemes algorítmics ha demostrat ja els seus potencials efectes perjudicials, tant entre empreses privades com en l’administració pública. És per això que aquest dimarts fins a 120 organitzacions de la societat civil han enviat una carta a la Unió Europea (UE) en la qual exigeixen que la llei comunitària que s’està preparant compleixi amb una sèrie d’objectius estrictes.

«L’ús de sistemes de reconeixement facial i altres de similars s’ha utilitzat a tot Europa de manera que condueix a la vigilància massiva biomètrica (...) i a amplificar algunes de les més profundes desigualtats socials i desequilibris de poder», resa el seu manifest. La IA serveix a les xarxes socials per predir el nostre comportament, a empreses com les aerolínies per ajustar els seus preus i a institucions públiques per ajudar en la gestió de processos com la concessió de permisos penitenciaris, com succeeix a les presons de Catalunya. No obstant, la seva aplicació també ha tingut efectes desastrosos. Així, els sistemes algorítmics han propiciat discriminacions quan han servit per agilitar deportacions, reforçar la vigilància policial contra comunitats immigrants o per negar l’accés a serveis sanitaris o ajudes públiques. Als Països Baixos, per exemple, es va denegar sense cap motiu aquestes prestacions a fins a 30.000 famílies vulnerables.

Fins ara, aquests sistemes algorítmics s’han desplegat sense supervisió, seguint la lògica de Silicon Valley de «mou-te ràpid i trenca coses». Pel camí, aquestes «coses» han sigut drets fonamentals. «La falta de regulació adequada sobre el desenvolupament i el desplegament de la tecnologia impulsada per la IA suposa una amenaça per als nostres drets digitals i humans», diu el comunicat.

Prohibir els sistemes de risc

Notícies relacionades

És per això que aquests 120 grups, especialitzats en la investigació algorítmica i els drets civils, sol·liciten que la regulació europea elabori una estratègia de futur sobre els riscos de la IA, que es prohibeixin els sistemes que perjudiquin els drets fonamentals o que es creïn mecanismes per facilitar la rendició de comptes i compensacions significatives per als afectats. Així mateix, s’exigeix una transparència pública d’aquests sistemes, que siguin sostenibles amb el medi ambient i una millora general de les normes.

Entre aquestes 120 organitzacions n’hi ha 12 d’espanyoles: Algorights, Associació Salut i Família, DIMMONS Digital Commons Research Group, DonesTech, Eticas Foundation, Fundació Secretariat Gitano, Implementation Team of the Decade of People of African Descent, Interferencias, Lafede.cat, NOVACT, Universitat i Ciència Somosindicalistas i Xnet.