Debat polèmic

Les empreses que impulsen la intel·ligència artificial equiparen el seu «risc d’extinció» a la guerra nuclear

  • Experts denuncien l’impacte climàtic de ChatGPT

  • La IA impulsa una nova era de propaganda política i electoral

Les empreses que impulsen la intel·ligència artificial equiparen el seu «risc d’extinció» a la guerra nuclear

Elizabeth Franz (Reuters)

3
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Acadèmics i directius de les grans empreses que estan liderant el desplegament de la intel·ligència artificial (IA) han advertit de l’amenaça existencial que, segons la seva opinió, suposa per a la humanitat. En una declaració de tan sols 22 paraules, investigadors i directors executius han assenyalat que el control d’aquesta tecnologia emergent s’hauria de prioritzar, equiparant la seva importància amb la de les pandèmies o a la guerra nuclear.

«Mitigar el risc d’extinció de la IA hauria de ser una prioritat mundial, juntament amb altres riscos a escala social com les pandèmies i la guerra nuclear», diu la carta oberta, que repeteix la criticada idea que, com a ‘Terminator’,la màquina adquireixi consciència i ens mati a tots. La publicació no contempla el canvi climàtic com una prioritat ni suggereix accions per minimitzar aquesta presumpta amenaça.

Entre les més de 200 personalitats que han firmat aquesta declaració destaquen líders empresarials com Sam Altman, director executiu d’OpenAI, creadora de ChatGPT i parcialment en mans de Microsoft o Demis Hassabis, director executiu de Google DeepMind. També hi figuren acadèmics com els professors de ciències computacionals Yoshua Bengio i Geoffrey Hinton, que fa menys d’un mes va dimitir com a vicepresident d’enginyeria de Google. Tots dos van ser reconeguts amb el Premi Turing, el Premi Nobel de les les ciències computacionals, pel seu treball en aprenentatge profund (’deep learning’), la tecnologia al darrere de la IA.

Debat polèmic

La carta busca «obrir la discussió» sobre els «riscos més severs» d’una tecnologia encara en desenvolupament, un debat complex que ja ha portat diverses polèmiques. Alguns d’aquests signants van publicar una altra missiva a finals de març en què demanaven suspendre durant sis mesos l’entrenament dels sistemes d’IA més avançats. No obstant, experts crítics en el camp van denunciar que aquests suposats riscos futurs de la IA encara són ciència-ficció i que parlar-ne serveix per amagar l’impacte real que aquesta tecnologia ja està tenint tant en matèria laboral com en el seu potencial per a la desinformació o el seu consum d’aigua i electricitat.

Altres experts són també escèptics amb aquesta última advertència. «Cal tenir molt clar que la IA no té entitat ontològica per acabar amb la humanitat, una altra cosa és que algú la programés per a això, però aquí el problema seria de la persona, no de la tecnologia», explica a EL PERIÓDICO Ulises Cortés, coordinador científic de la IA d’alt rendiment al Barcelona Supercomputing Center. «La majoria dels signants s’han fet rics amb eines d’IA, venent el hype i aprofitant-se de les dades d’altres persones», afegeix.

Per aquest i altres investigadors, l’equiparació de la IA amb les armes nuclears és tramposa. «La pandèmia i la guerra nuclear són dos perills que es basen en evidències teòriques i empíriques, mentre que el risc d’una extinció de la humanitat és borrós, completament incert i basat en superintel·ligències hipotètiques de les quals no hi ha evidències», remarca Ariel Guersenzvaig, professor d’Elisava i expert en ètica del disseny i la tecnologia. «No hem demanat mitigar la física perquè hagi permès la creació de la bomba atòmica», afegeix Cortés.

Maniobra de distracció

Notícies relacionades

Tot i que la majoria de signants són nord-americans, a l’altra banda de l’Atlàntic també hi ha moltes veus crítiques amb aquest tipus de declaracions apocalíptiques. «Quan els bros de la IA cridin «¡Mira, un monstre!» per distreure tothom de les seves pràctiques (robatori de dades, malbaratament d’energia, escalada de biaixos, contaminació de l’ecosistema de la informació), hauríem de fer com Scooby-Doo i treure’ls la màscara», ha tuitejatEmily Bender, professora de lingüística computacional de la Universitat de Washington.

Durant les dues últimes setmanes, Altman ha comparegut davant el Senat dels Estats Units i ha realitzat una gira per Europa en què ha demanat a les autoritats –entre ells, el president espanyol Pedro Sánchez i el seu homòleg francès Emmanuel Macron– crear un organisme que supervisi la seguretat dels projectes d’IA. Com també han assenyalat d’altres, Guersenzvaig veu en aquestes peticions del creador de ChatGPT una «estratègia de triler» per influir i suavitzar una futura regulació de les eines que estan desplegant. «Ens estan fent parlar de la tecnologia i no de qui l’està utilitzant i per a quina fi», hi afegeix. Davant la hipotètica extinció de la raça humana, tots els altres perills semblaran diminuts.