MÉS PERIÓDICO

Els robots assassins ja són aquí: ¿s’han de regular o prohibir-los?

De Líbia a Ucraïna, la inversió i el desplegament d’armes autònomes letals que funcionen amb intel·ligència artificial no para de créixer mentre els experts demanen una regulació per prohibir-les o limitar-les

Els robots assassins ja són aquí: ¿s’han de regular o prohibir-los?

AGENCIAS

5
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Al març, els investigadors de fonts obertes que rastregen digitalment cada avenç en la guerra d’Ucraïna van detectar que Rússia hauria utilitzat un avió no tripulat capaç de disparar als seus enemics gràcies a la intel·ligència artificial (IA). Un robot assassí desplegat al camp de batalla. Tot i que és difícil saber si aquest dron ha actuat amb independència, identificar-lo torna a posar en primer pla el temor de la normalització de sistemes d’armes autònomes letals, una realitat que ja ha superat la ciència-ficció.

Com va plasmar la retirada militar dels Estats Units de l’Afganistan, molts països són cada vegada més reticents a posar el cos en una intervenció directa en un conflicte. Mentre que l’elevat cost humà i polític desincentiva les operacions sobre el terreny, la possibilitat d’actuar en remot, des d’un centre de control a l’altra punta del món, és una opció molt més atractiva. Les armes autònomes estan obrint la porta a l’oportunitat de vigilar i respondre a possibles insurgències de grups terroristes com Al-Qaeda o l’autoproclamat Estat Islàmic (ISIS) des d’una remota base militar a Nevada a més de 12.000 quilòmetres de distància.

El dron rus detectat a Kíiv podria no ser el primer dispositiu intel·ligent utilitzat pel Kremlin en una guerra, ja que diversos informes apunten que aquest model ja es podria haver utilitzat a Síria el 2019. A més de Moscou, se sospita que Israel, Corea del Sud i Turquia també podrien haver recorregut a armes amb capacitat autònoma, tot i que es desconeix si ho haurien fet amb el mode d’autogestió activat. Segons un informe de les Nacions Unides, la primera víctima d’aquests sistemes podria haver-se produït amb un dron de fabricació turca utilitzat el març del 2020 per les forces líbies per «caçar i atacar a distància» en el marc de la guerra civil, una acusació que Ankara rebutja.

Noves armes

Aquests casos il·lustren com aquesta tecnologia militar està proliferant de manera cada vegada més ràpida. Però, més enllà de la seva aplicació, són més els països que inverteixen en investigació. Entre el 2016 i el 2020, l’exèrcit dels EUA va destinar uns 18.000 milions de dòlars a aquesta causa. Washington s’ha oposat a qualsevol tipus de regulació. Austràlia, el Regne Unit i la Xina també podrien estar finançant la creació de noves armes intel·ligents de més abast i capacitat.

Els sistemes autònoms letals més comuns són els drons, els algoritmes dels quals han sigut entrenats per detectar els seus objectius, ja siguin tancs, barcos, radars enemics i fins i tot persones concretes. Tot i que les aeronaus no tripulades existeixen des de fa més d’un segle, els drons com a armes d’execució han proliferat en les dues últimes dècades, especialment amb la presidència de Barack Obama. No obstant, els drons intel·ligents són molt més recents. I encara queda molt per explorar.

Errors mortals

L’ús d’aquest tipus de tecnologia militar inquieta els experts en IA. Una de les principals preocupacions són els possibles errors en la identificació. Nombrosos estudis han demostrat que les fallades algorítmiques són més habituals amb persones racialitzades, un error que tendeix a amplificar la seva discriminació. El ‘software’ de reconeixement de Google, un dels gegants tecnològics més grans del món, va confondre afroamericans amb goril·les. Si fins i tot les imatges netes poden ser problemàtiques per a l’IA, en un context de destrucció bèl·lica la identificació d’objectius pot ser molt més imprecisa. I, per tant, perillosa.

L’impacte d’aquests biaixos no és fútil. A la frontera d’Espanya tenen el potencial perill de criminalitzar migrants en situació de vulnerabilitat. Però, ¿i si el sistema de reconeixement facial d’un dron confon un nen innocent amb un terrorista? Aplicat en el camp de batalla, aquest marge d’error pot equivaler a la mort. A més, l’opacitat amb què els algoritmes prenen decisions –similar a una caixa negra– fa que sigui pràcticament impossible fiscalitzar-los.

Aquest perill es multiplica en un context de normalització d’aquest tipus d’armes, ja sigui en una hipotètica cursa armamentística o en el cas que proliferin versions barates d’aquesta tecnologia –com ja va passar amb el rifle automàtic d’assalt AK-47 de Kalàixnikov– que permetin que grups terroristes més enllà de les tropes regulars hi tinguin accés.

Rebuig i regulació

La preocupació per aquest armament ha anat creixent en paral·lel a la seva oposició. Milers d’experts en IA i defensors dels drets humans han exigit que es prohibeixin. Fins a un 61% dels ciutadans de 26 països també en rebutgen l’ús, segons una enquesta per a Human Rights Watch del 2019. L’Índia, Israel, el Brasil i la Xina són els països on més gent creu que els robots es poden fer servir per matar humans. A Espanya, la desaprovació és del 65%.

Notícies relacionades

Des del 2013, uns 40 països han recolzat la creació d’una llei internacional que restringeixi i limiti aquests sistemes i gairebé un centenar han mostrat la seva preocupació. «Imaginin-se les conseqüències d’un sistema autònom que podria, per si sol, apuntar i atacar éssers humans», va alertar el 2018 el secretari general de les Nacions Unides, António Guterres. «Demano als Estats que prohibeixin aquestes armes, que són políticament inacceptables i moralment repugnants». No obstant, la iniciativa encara no ha prosperat. El desembre passat, el debat produït durant la Convenció de Certes Armes Convencionals de l’ONU tampoc va arribar a bon port.

L’oposició de molts exèrcits fa que aprovar un tractat per a una prohibició a tot el món sigui poc viable. Tot i així, existeixen vies per limitar-ne l’impacte. I és que, com han assenyalat organitzacions internacionals com Stop Killer Robots, podria impulsar-se una regulació de les armes autònomes que limiti les que suposen més risc i imprevisibilitat, permetent l’ús de la IA en tecnologia militar defensiva, com escuts antimíssils intel·ligents. Aquesta rebaixa pot ser terreny fèrtil per arribar a un acord que posi límits a la creixent normalització dels anomenats robots assassins. Com més se n’estengui l’ús, més difícil serà tenir-los sota control.