Entendre-hi + amb la ciència

¿Quins perills comporten realment els ‘deepfakes’?

  • El pitjor perill dels vídeos i àudios manipulats informàticament és el dubte que sembren sobre els documents autèntics

  • Actualment, l’impacte més gran d’aquesta tecnologia és l’assetjament de les dones, amb la inserció de la seva cara en vídeos pornogràfics.

¿Quins perills comporten realment els ‘deepfakes’?
Es llegeix en minuts
Michele Catanzaro
Michele Catanzaro

Periodista

ver +

Vídeos, fotos i àudios ja no són proves incontrovertibles. Els deepfakes manipulen gairebé perfectament l’aspecte i la veu d’una persona per mitjà de la intel·ligència artificial. El seu impacte més gran és l’assetjament de dones, amb la inserció de la seva cara en vídeos pornogràfics. En política, la seva pitjor conseqüència podria ser sembrar dubtes sobre documents que sí que són autèntics. 

L’octubre del 2020, diverses persones van morir en xocs amb la policia a Lagos (Nigèria). Es van presentar davant un tribunal vídeos que incriminaven els agents, però la policia es va defensar al·legant que eren manipulats. La càrrega de demostrar que no ho eren va passar a les víctimes. 

Aquest episodi posa de manifest el perill més subtil dels deepfakes (ultrafalsos). «Hi ha una tendència creixent a dir que alguna cosa és un deepfake quan és real. Això genera una atmosfera que no pots creure el que veus», comenta Sam Gregory, director de Witness, una organització que utilitza vídeos per defensar els drets humans.

¿Què és el deepfake?

deepfakeLa tecnologia del deepfake utilitza la intel·ligència artificial per generar, per exemple, vídeos que fonen la cara d’una persona amb el cos d’una altra, àudios amb una veu clonada que diu paraules que mai s’han pronunciat, etcètera.

«La idea és antiga, però ara hi ha potència de càlcul i quantitat de prou dades», afirma Dimosthenis Karatzas, director del Computer Vision Center de la Universitat Autònoma de Barcelona, que ha organitzat recentment un debat sobre el tema. 

Entre les tècniques més fetes servir hi ha les ‘generative adversarial networks’ (GANs). Aquestes produeixen dades sintètiques i les plantegen, juntament amb dades reals, a un ‘discriminador’, que distingeix les primeres de les segones. Per mitjà de correccions successives, el sistema és entrenat de tal manera que a final el discriminador ja gairebé no distingeix les dades fictícies de les reals.

Generar imatges o altres dades artificials té moltes aplicacions. Per exemple, els filtres anti-‘spam’ es poden entrenar amb gran quantitat de correus brossa artificials. O els cotxes sense conductor, amb bases de dades d’imatges sintètiques d’accidents. 

¿Quin impacte té?

• Assetjament

Gairebé tot el deepfake que circula a internet representa imatges sexuals amb cares inserides sense consentiment, segons un estudi recent. Vídeos d’aquest tipus es van fer servir per assetjar la periodista índia Rana Ayyub, entre d’altres. 

• Falsificació en política

Diversos deepfakes de polítics s’han tornat virals en els últims anys. No obstant, «els deepfakes no semblen tenir un efecte superior a la resta de desinformació», observa Soubhik Barari, investigador en ciències polítiques de la Universitat de Harvard que ha experimentat amb voluntaris exposats a falsificacions. Els shallowfakes (falsificacions superficials) utilitzen tècniques tan senzilles com atribuir un vídeo impactant a un lloc i temps diferents dels reals, tallar seqüències per alterar el seu sentit, o utilitzar actors. «Fabricar un vídeo tradicional pot ser més efectiu que fer un deepfake», observa Barari.

• Sembrar el dubte

Negar la veracitat de qualsevol imatge és la conseqüència més nefasta. «Hi ha una pressió creixent sobre periodistes i defensors de drets humans perquè demostrin que aporten material autèntic. Ràpidament s’utilitza l’argument del deepfake per dir que cap vídeo és demostrablement cert», alerta Gregory. «La retòrica al voltant d’aquesta tecnologia és tan perillosa com la tecnologia per si mateixa», afegeix.

¿Com es pot combatre?

• Detectar

«És important fixar-se en el to de la pell, si els moviments de la cara concorden amb els del cos i també analitzar críticament la font i el missatge», explica Ruth García, tècnic de ciberseguretat per a ciutadans de l’Institut Nacional de Ciberseguretat (Incibe). Quant a la detecció informàtica, depèn de l’algoritme fet servir: per exemple, si es falsifica el moviment de la boca, es pot detectar una discontinuïtat al voltant dels llavis. «És una carrera, perquè cada dia surten noves maneres de fer deepfakes», afirma Karatzas. L’enfocament més prometedor, perseguit per diversos consorcis internacionals, consisteix a certificar l’origen de cada imatge per mitjà de metadades que permetin seguir les modificacions que ha tingut.  

• Protegir les víctimes

L’esforç legislatiu hauria d’anar sobretot en la direcció de protegir les persones damnificades, majoritàriament dones, segons diversos experts consultats. 

Notícies relacionades

• Mitjans forts i ciutadania formada

En els experiments de Barari, els voluntaris més capaços de reconèixer deepfakes eren els que més sabien de política i tecnologia. «L’hàbit de consumir notícies autèntiques vacuna contra la desinformació», resumeix Barari. Aquest expert alerta que aquesta tecnologia podria arribar a fer més mal sobretot en llocs on el sistema de mitjans és més dèbil.