TECNOLOGIA MILITAR

Alerta pels robots de la guerra

Experts en robòtica i en intel·ligència artificial adverteixen dels perills de les armes letals autònomes

Els especialistes subratllen la responsabilitat moral dels humans sobre les accions de les màquines

zentauroepp40004591 x 47b  avion no tripulado del ejercito de estados unidos170908140929

zentauroepp40004591 x 47b avion no tripulado del ejercito de estados unidos170908140929

3
Es llegeix en minuts
Anna Josa Marrón

Una vegada s'obri aquesta capsa de Pandora, serà difícil tancar-la”. Aquesta màxima tanca l'escrit que 117 experts de 26 països pioners en robòtica i en desenvolupament de la intel·ligència artificial van enviar l'agost passa a l'ONU amb un propòsit: alertar el món del perill potencial que tenen les armes letals autònomes. Entre els promotors de la iniciativa hi ha empresaris i científics de la talla d'Elon Musk, fundador de Tesla, o Mustafa Suleyman, l'emprenedor de DeepMind, adquirida per Google. 

Els experts en la matèria han proposat a Nacions Unides frenar les armes letals autònomes –com els avions no tripulats i els tancs i metralladores automatitzades-, en el marc de la Conferència Internacional Conjunta sobre Intel·ligència Artificial (IJCAI), celebrada aquest agost a Melbourne. Tots ells temen que la creixent autonomia d'aquestes armes letals desemboqui en un nou escenari bèl·lic que elevi a un altre nivell les conseqüències dels conflictes armats. I per descomptat el nombre de víctimes que aquests provoquen.

“Les armes letals autònomes amenacen de convertir-se en la tercera revolució de combat. Una vegada desenvolupades, permetran disputar conflictes armats a una escala més gran que mai, i en unes escales de temps més ràpides del que els humans poden comprendre”, adverteixen els experts en aquesta carta a l'ONU.

Debat ètic

L'ús automatitzat de la força al camp de batalla fa saltar totes les alarmes. Es pot traduir en llançaments de míssils, torpedes, mines i, en definitiva, tota classe d'explosius. Bombes que poden caure sobre civils i que poden elevar els nivells de violència a una baula superior. El debat ètic i moral sobre l'ús d'una tecnologia capaç de matar de forma autònoma planteja la qüestió sobre el seu control.

Per això, segons un informe de l'Institut Espanyol d'Estudis Estratègics, existeix un consens que defineix el control que haurien d'exercir els humans enfront d'aquestes màquines i que contempla tres dimensions: en primer lloc, el passar comptes, que segons les lleis de la guerra, si la màquina comet un error i ataca un objectiu equivocat, es pot donar el cas que no hi hagi un ésser humà a qui fer responsable i per tant no es puguin demanar responsabilitats. En segon lloc hi ha la qüestió de la responsabilitat moral que tenen els humans sobre les accions de les armes autònomes. Per últim, s'ha de tenir en compte el factor del control sobre les armes autònomes, jao que donada una situació inesperada, es podria produir una fallada en el sistema que provoqués l'atac a un gran nombre d'objectius equivocats.

És per això que les armes autònomes estan avui dia en el punt de mira. Bonnie Docherty, investigadora i professora de la Universitat de Harvard, ha manifestat la seva preocupació pels robots de guerra en moltes ocasions. “És hora que els països es moguin més enllà de la fase de tertúlia i comencin a buscar una prohibició preventiva”, explica la investigadora en un informe publicat a la facultat de dret de Harvard. En ell també adverteix que “els governs han d'assegurar-se que els humans retenen en control sobre qui atacar amb les seves armes i quan disparar”.

Avantatges militars

Els defensors d'aquesta tecnologia destaquen el ventall d'avantatges militars que tenen els robots de guerra. No actuen per pànic, venjança ni odi racial, amplien el camp de batalla, el seu temps de reacció és menor que el dels humans, ofereixen una protecció més gran a les forces armades –poden salvar vides dels soldats- i poden ampliar el camp de batalla. L'absència de passions a la màquina és el que pot fer més objectives les seves accions, encara que aquesta regla no sempre es compleix.

Notícies relacionades

La campanya internacional ‘Stop Killer Robots’ manté que “permetre a les màquines decidir sobre la vida o la mort creua una línia moral fonamental. Els robots autònoms no tenen judici humà ni la capacitat d'entendre el context”. És per això que proposen mesures com la suspensió nacional –almenys temporal- dels robots letals, el compromís amb els drets humans, transparència en el desenvolupament dels sistemes robòtics aplicats a les armes i la participació activa en el debat internacional sobre la qüestió.

La carrera militar per desenvolupar els robots de combat ha generat una mobilització precisament dels que són pioners en robòtica i intel·ligència artificial. De fet, abans de la carta enviada a l'ONU per promoure un espai de debat al voltant de les armes autònomes i evitar la seva proliferació, altres científics com Stephen Hawking ja van escriure el 2015 un manifest en què es definia la Intel·ligència Artificial com la “pitjor amenaça existencial de la humanitat”.