Les decisions preses a les guerres amb IA tendeixen a agreujar la violència

El congrés europeu d’intel·ligència artificial, celebrat a Alacant i organitzat per Prensa Ibérica, adverteix de l’ús bèl·lic d’aquesta tecnologia i aconsella posar límits a la seva utilització.

Les decisions preses a les guerres amb IA tendeixen a agreujar la violència
3
Es llegeix en minuts
J. A. MARTÍNEZ / J. HERNÁNDEZ

La intel·ligència artificial en temps de guerra. Mentre uns països mantenen unes limitacions ètiques per aplicar les noves tecnologies al seu armament, altres nacions no estan respectant aquests mínims. Decisions que s’adopten en dècimes de segon i per a les quals aquests sistemes poden ajudar, tot i que una de les claus per garantir el respecte dels drets humans és poder explicar com ha pres l’algoritme la decisió.

Així s’ha posat de manifest al III Fòrum Europeu d’Intel·ligència Artificial, que ha reunit aquesta setmana desenes d’experts a Alacant i està organitzat per Prensa Ibérica i els tres diaris d’aquest grup al País Valencià (Información, Levante i Mediterráneo). El congrés ha analitzat el desafiament de l’ús d’aquestes noves tecnologies en la ciberseguretat i la defensa global en una taula rodona participada per Ángel Gómez de Ágreda, membre fundador i de la junta directiva de l’Observatori de l’Impacte Social i Ètic de la Intel·ligència Artificial (OdiseIA); el coronel Javier Bermejo Higuera, cap del departament TICS de la Sotsdirecció de Sistemes Terrestres de l’INTA; i Eugenia Hernández, directora de l’UNTIT, Intel·ligència Analysis Unit of the SEI and International Relations at UAM.

Gómez de Ágreda va remarcar com habitualment les tecnologies militars no compten amb una versió beta, sinó que s’apliquen directament al camp de batalla. Per aquesta raó, va incidir en la importància de tenir en compte les implicacions ètiques i morals que aquest camp planteja. "Quan es deixa la intel·ligència artificial prendre les decisions, la guerra escala més ràpidament, es torna més violenta i s’arriba a un enfrontament nuclear en les simulacions", va advertir. Mentre que hi ha una voluntat regulatòria en l’ús d’intel·ligència artificial perquè no es deixin aquests valors ètics, Gómez de Ágreda va alertar que són precisament en els sistemes més perillosos on no hi ha aquest consens. En aquest context es va referir als sistemes d’armes autònoms letals coneguts com a robots assassins.

La cursa armamentística se centra en la producció tecnològica, va dir, i va insistir en la necessitat que els éssers humans no es converteixin en el boc expiatori de decisions que prenen les màquines en escenaris bèl·lics. Segons el seu parer, la letalitat no és característica d’aquests sistemes, sinó de la guerra. L’ús d’aquests sistemes es justifica a poder distingir els objectius civils dels militars i reduir l’estrès del combatent, que sovint ha de prendre decisions a vida o mort en dècimes de segon. Gómez de Ágreda va incidir en el fet que cap d’aquestes dues hipòtesis és certa. Davant la diferència tecnològica entre Occident i la Xina, va destacar que l’avantatge del primer és que té un enfocament més flexible que li permet esquivar millor els problemes a llarg termini.

Per la seva banda, per al coronel Javier Bermejo, un dels reptes de l’ús de la intel·ligència artificial en matèria de defensa és en la transparència de la presa de decisions, especialment valorant d’on procedeix la informació. Bermejo va començar analitzant la gran diferència de la despesa en inversió en tecnologies disruptives aplicades a la defensa, la ciberseguretat i la robòtica entre els Estats Units i Europa. Un total de 135.000 milions de dòlars a l’any en el cas nord-americà, davant 8.000 milions al Vell Continent.

En la jornada anterior, João Negrão, director executiu de l’Oficina de Propietat Intel·lectual de la Unió Europea (EUIPO), va obrir la trobada per posar en valor que a l’EUIPO ja es fa servir la IA en moltes de les seves funcionalitats, i que a principis de l’any vinent s’estendrà a totes les operacions de la institució europea gràcies al desenvolupament del pla estratègic que estan ultimant actualment. "Estem totalment a favor d’utilitzar la intel·ligència artificial, però no sense límits. Els límits han de ser una utilització, un ús responsable, ètic i centrat en el factor humà", va afirmar.

Europa és poc competitiva

Notícies relacionades

Negrão va citar el diagnòstic sobre la situació de competitivitat a la Unió Europea que recentment ha dut a terme el professor Mario Draghi, expresident del Banc Central Europeu. "Sabem que som menys competitius i innovadors que en altres regions del món, i és millor admetre-ho perquè puguem començar a prendre mesures que puguin canviar aquesta situació.

També en l’àrea de la IA està clar que hi ha una més baixa inversió que als EUA, la Xina, Corea del Sud o Singapur. S’han de crear condicions per fer un millor ús a Europa de les funcionalitats de la intel·ligència artificial per desenvolupar les nostres economies, crear més ocupació, més producte interior brut (PIB) i millorar les condicions de vida de tots els europeus a través de la tecnologia".

Temes:

Intel