Tecnologia i drets humans
Un centenar d’entitats exigeix a la UE una regulació estricta de la Intel·ligència Artificial
Fins a 120 organitzacions civils adverteixen que els sistemes algorítmics estan amplificant «desigualtats socials» i «vigilància massiva» a Europa
Cámara de seguridad de un hotel /
La Intel·ligència Artificial (IA) està expandint-se a cada vegada més racons de la nostra vida. Tot i que la tecnologia és neutra i depèn de l’ús que se li doni, el desplegament sense supervisió de sistemes algorítmics ha demostrat ja els seus potencials efectes perjudicials, tant entre empreses privades com en l’administració pública. És per això que aquest dimarts fins a 120 organitzacions de la societat civil han enviat una carta a la Unió Europea (UE) en la qual exigeixen que la llei comunitària que s’està preparant compleixi amb una sèrie d’objectius estrictes.
«L’ús de sistemes de reconeixement facial i altres de similars s’ha utilitzat a tot Europa de manera que condueix a la vigilància massiva biomètrica (...) i a amplificar algunes de les més profundes desigualtats socials i desequilibris de poder», resa el seu manifest. La IA serveix a les xarxes socials per predir el nostre comportament, a empreses com les aerolínies per ajustar els seus preus i a institucions públiques per ajudar en la gestió de processos com la concessió de permisos penitenciaris, com succeeix a les presons de Catalunya. No obstant, la seva aplicació també ha tingut efectes desastrosos. Així, els sistemes algorítmics han propiciat discriminacions quan han servit per agilitar deportacions, reforçar la vigilància policial contra comunitats immigrants o per negar l’accés a serveis sanitaris o ajudes públiques. Als Països Baixos, per exemple, es va denegar sense cap motiu aquestes prestacions a fins a 30.000 famílies vulnerables.
Fins ara, aquests sistemes algorítmics s’han desplegat sense supervisió, seguint la lògica de Silicon Valley de «mou-te ràpid i trenca coses». Pel camí, aquestes «coses» han sigut drets fonamentals. «La falta de regulació adequada sobre el desenvolupament i el desplegament de la tecnologia impulsada per la IA suposa una amenaça per als nostres drets digitals i humans», diu el comunicat.
Prohibir els sistemes de risc
Notícies relacionadesÉs per això que aquests 120 grups, especialitzats en la investigació algorítmica i els drets civils, sol·liciten que la regulació europea elabori una estratègia de futur sobre els riscos de la IA, que es prohibeixin els sistemes que perjudiquin els drets fonamentals o que es creïn mecanismes per facilitar la rendició de comptes i compensacions significatives per als afectats. Així mateix, s’exigeix una transparència pública d’aquests sistemes, que siguin sostenibles amb el medi ambient i una millora general de les normes.
Entre aquestes 120 organitzacions n’hi ha 12 d’espanyoles: Algorights, Associació Salut i Família, DIMMONS Digital Commons Research Group, DonesTech, Eticas Foundation, Fundació Secretariat Gitano, Implementation Team of the Decade of People of African Descent, Interferencias, Lafede.cat, NOVACT, Universitat i Ciència Somosindicalistas i Xnet.
- El laberint català Així estan les enquestes de les eleccions a Catalunya
- Procés a Tailàndia La pena de mort s’allunya del cas Daniel Sancho
- A tot Espanya Sanitat no pot cobrir 473 destinacions per a MIR
- BCN expandirà el bus a demanda durant els pròxims tres anys
- Terratrèmol hores abans de l’inici de la campanya catalana Sánchez anul·la la seva agenda i es planteja renunciar després de la investigació a la seva dona
- Resultats Repsol creu que l’impost a les energètiques decaurà a final d’any
- Competició de vela Lola Casademunt vestirà l’equip dels EUA de la Copa Amèrica
- Resultats trimestrals El Sabadell guanya el 50% més i preveu un rècord de benefici el 2024
- Expansió empresarial Esteve compra a Perrigo la divisió de malalties minoritàries per 275 milions
- Roberto Menéndez: "És important que la IA no estigui en mans de poques empreses"