Amenaça democràtica

Un estudi assenyala que Vox i Aliança Catalana fan servir la IA per difondre desinformació i atacar els drets humans

Un informe de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) encarregat per la Generalitat alerta que la intel·ligència artificial ja s’utilitza per manipular processos electorals

Un estudi assenyala que Vox i Aliança Catalana fan servir la IA per difondre desinformació i atacar els drets humans

Ferran Nadeu / EPC

3
Es llegeix en minuts
Gisela Boada
Gisela Boada

Redactora

ver +

La intel·ligència artificial ha deixat de ser una eina secundària en la comunicació política per convertir-se en un factor de risc per a la qualitat democràtica. Així ho adverteix l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC), amb seu a la Universitat de Girona, en un estudi encarregat pel Departament de Justícia i Qualitat Democràtica de la Generalitat. L’informe analitza el** paper de la IA** en els processos electorals i alerta de la seva capacitat per alimentar campanyes de desinformació, manipular la percepció dels votants i erosionar la confiança en les institucions democràtiques.

El document posa el focus, en l’àmbit català, en l’ús d’aquestes eines per part de partits d’extrema dreta. L’informe sosté que resulta "necessari" atendre l’ús que fan de la IA aquestes formacions pel seu impacte en l’"atac als drets humans i en la convivència social". En aquest apartat, l’OEIAC cita de manera expressa Vox i Aliança Catalana com a exemples d’actors polítics que han recorregut a continguts generats o manipulats mitjançant intel·ligència artificial en campanyes de desinformació.

Casos concrets de Vox i Aliança Catalana

En el cas d’Aliança Catalana, l’estudi recull la difusió d’una imatge falsa creada amb IA per alimentar un missatge xenòfob a Manresa, acompanyada de dades manipulades sobre població estrangera. Segons l’informe, la imatge, de tres dones amb burca, es va fer viral i va superar les 132.000 visualitzacions abans que l’associació Verifica't pogués desmentir-la. El document també menciona una altra imatge generada amb IA i difosa per la líder del partit, Sílvia Orriols, en què apareixia disparant contra Carles Puigdemont, un contingut que va ser denunciat judicialment per Junts com un presumpte delicte d’odi.

L’informe també assenyala Vox, que presenta com un dels partits d’un Estat membre de la Unió Europea que més campanyes de desinformació ha impulsat a les xarxes socials. L’estudi cita, entre altres episodis, la creació de més de 600 grups i pàgines de Facebook el maig del 2019, amb un impacte superior a les 763.000 visites, i una campanya posterior a TikTok amb imatges generades amb IA o extretes d’internet de dones amb un "cànon físic molt concret" —vestides amb vel— per difondre missatges alineats amb el programa del partit, en contra de l’islam.

Diferents formes de manipulació

Més enllà dels casos concrets, l’estudi identifica cinc usos de la IA amb potencial per manipular processos electorals. Entre aquests hi figuren els vídeos, àudios o imatges falsos però aparentment reals; els programes capaços de generar desinformació a gran escala; els bots que multipliquen artificialment l’abast d’un missatge a les xarxes; la segmentació de votants per enviar propaganda personalitzada segons les seves pors o interessos; i la creació de perfils, webs o comunicacions falses que imiten candidats, partits, mitjans o institucions.

L’any 2024, sosté l’informe, va marcar un punt d’inflexió. Més de 60 països, gairebé la meitat dels estats del món, van registrar incidents de desinformació o manipulació activa mitjançant eines d’IA. L’estudi documenta casos en diferents continents, des de vídeos falsos i trucades automatitzades fins a campanyes de bots i continguts sintètics utilitzats per desacreditar candidats o sembrar dubtes sobre la transparència dels comicis.

El director de l’OEIAC i coordinador de l’estudi, Albert Sabater Coll, adverteix que "la magnitud del fenomen obliga a canviar la mirada". El problema, sosté l’informe, no és només que aquests continguts puguin enganyar, sinó que circulen a una velocitat que supera la capacitat de desmentiment. La conseqüència és que la IA no només fabrica falsedats, sinó que pot erosionar la confiança ciutadana en el sistema democràtic.

Els reptes legislatius

Notícies relacionades

L’estudi també subratlla el desfasament entre la innovació tecnològica i la resposta legislativa. Tot i que el reglament europeu d’IA ja considera d’alt risc els sistemes que poden influir en eleccions, l’informe conclou que la legislació estatal i catalana continua sent insuficient. La LOREG, adverteix, està pensada per a amenaces analògiques i no aborda amb precisió els reptes actuals de la desinformació digital i la manipulació algorítmica.

Davant d’aquest escenari, l’OEIAC proposa una resposta multinivell: reforçar la detecció de continguts artificials, implantar marques d’aigua digitals i estàndards d’autenticació com el C2PA —una mena de certificat digital que permet rastrejar l’origen d’una imatge, un vídeo o un àudio i saber si ha estat manipulat—, regular la publicitat política digital, limitar la microsegmentació basada en dades sensibles i desplegar programes d’alfabetització digital crítica per a ciutadans, mitjans, partits i autoritats electorals. La conclusió de l’informe és que la defensa de la integritat electoral ja no depèn només de protegir les urnes, sinó també de protegir l’espai públic digital on es forma l’opinió dels votants.