Secció recomanada per

‘Cybergrooming’

«Els agressors juguen amb avantatge»: les xarxes socials, porta d’entrada a l’assetjament sexual infantil

«Els agressors juguen amb avantatge»: les xarxes socials, porta d’entrada a l’assetjament sexual infantil

Nagy-Bagoly Ilona / 123rf

5
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Els agressors sexuals acudeixen cada vegada més a les xarxes socials. D’Instagram a TikTok, tota plataforma freqüentada per menors d’edat és també un porta posterior per on poden colar-se adults amb fosques intencions. El seu objectiu, alerta l’organització Save the Children, és guanyar-se a poc a poc la confiança de les víctimes «per després involucrar-les en una activitat sexual». Acostament, converses íntimes, intercanvi d’imatges explícites i extorsió o manipulació emocional perquè acabi produint-se una trobada física.

Tot i que la immensa majoria de casos es donen des de l’àmbit intrafamiliar, l’assetjament sexual a través d’internet és cada vegada més habitual. A Espanya, un 23% dels adolescents d’entre 12 i 15 anys han patit un fenomen conegut com a ‘online grooming’ o ‘cybergrooming’ en anglès. Així ho revela una recent investigació pionera realitzada per quatre universitats del país, que adverteix que les nenes reben moltes més peticions sexuals i que fins en un 14% dels casos el menor interactua amb el seu potencial agressor. El perfil de víctima i d’agressor és heterogeni.

«Les dades de denúncies creixen any a any i tot i així suposen a tot estirar el 10% dels casos reals», alerta Irene Montiel, psicòloga jurídica experta en ciberabús sexual. La també professora de la UOC explica a EL PERIÓDICO que els depredadors busquen adolescents faltades d’atenció que estan en ple desenvolupament sexual i que utilitzen les xarxes per experimentar mentre les seves famílies «no saben de la missa la meitat». Així, es dona una doble asimetria de poder: «Els agressors juguen amb molt avantatge, tenen més edat i experiència, però també més informació per seleccionar les seves víctimes», afegeix.

«Els agressors juguen amb molt avantatge: tenen més edat i experiència, però també més informació per seleccionar les seves víctimes».

Irene Montiel

psicòloga jurídica experta en ciberabús sexual

La captació de menors amb voluntat sexual és un delicte tipificat a l’article 183 del Codi Penal que porta penes de presó d’un a tres anys. Tot i així, l’assetjament digital no ha parat d’estendre’s. I ho ha fet especialment des del 2020, any en el confinament causat per la irrupció de la pandèmia de la covid va disparar la presència ‘online’ dels menors. Al Regne Unit, els delictes relacionats amb imatges d’abús sexual a nenes i nens s’ha disparat un 66% en els últims cinc anys, segons l’organització benèfica NSPCC.

Detecció automàtica

L’augment de l’assetjament en línia a menors és un problema majúscul i incòmode. Pressionats per la urgència, els governs busquen fórmules efectives per limitar la propagació d’aquests continguts indesitjats. Sense anar més lluny, la Unió Europea (UE) estudia una controvertida regulació –popularment coneguda com a ‘Chat Control’– que obligaria les plataformes tecnològiques a escanejar missatges privats, fotografies i vídeos de milions d’usuaris d’aplicacions com WhatsApp per detectar i denunciar material il·legal. Els Estats Units i el Regne Unit ultimen mesures restrictives similars.

Fins ara, les xarxes socials han hagut d’eliminar els continguts abusius prèviament denunciats, però res les ha forçat a buscar-los de manera proactiva. Això pot estar a punt de canviar. «Hi ha molta impunitat a les xarxes perquè els prestadors de servei no tenen l’obligació de detectar aquests continguts. Queda clar que no estan fent suficient», assenyala Ona Lorda, responsable de polítiques d’infància a Catalunya de Save the Children, organització que encara no té una posició pública sobre la proposta europea.

«Hi ha molta impunitat perquè les plataformes no estan obligades a detectar aquests continguts. Queda clar que no estan fent suficient».

Ona Lorda

responsable de polítiques d’infància de Save the Children a Catalunya

Per la seva banda, fa temps que les empreses tecnològiques desenvolupen solucions tècniques. Gegants com Google, Amazon, Meta o Apple utilitzen PhotoDNA, una eina dissenyada el 2009 per acadèmics i Microsoft que automatitza el bloqueig de l’abús sexual infantil. Entrenat amb milions de dades sensibles, aquest sistema és capaç de rastrejar les imatges penjades a internet per identificar i eliminar les sospitoses. Tot i que Twitter (rebatejada com a X) també l’utilitza, l’hauria tingut desactivat, de manera que hauria permès la difusió d’imatges sexuals de menors. El seu propietari, Elon Musk, també ha sigut criticat per desbloquejar el compte d’un conegut usuari d’extrema dreta que va penjar aquests continguts prohibits.

Tot i així, l’efectivitat de mecanisme és limitada. «Els agressors utilitzen paraules clau o símbols que només ells coneixen per esquivar-lo i continuar intercanviant material», adverteix Montiel.

Privacitat en risc

Els grups de protecció a la infància aplaudeixen moltes d’aquestes mesures. Tot i això, són vistes amb temor per part dels defensors dels drets digitals. Organitzacions com X-Net han denunciat que la llei que prepara Brussel·les «violarà drets fonamentals com el secret de les comunicacions o la privacitat», a més de ser «tècnicament inviable». Fins i tot un estudi del Servei Científic del Parlament Europeu ha considerat que aquesta tecnologia de detecció provocarà més denúncies i menys precisió. Un document filtrat a la revista ‘Wired’ assenyala fins i tot que Espanya estaria pressionant per prohibir el xifratge d’extrem a extrem, informació que el Ministeri de l’Interior rebutja. Als EUA, la mesura també genera el rebuig dels experts digitals, que la veuen com una «amenaça a llibertat d’expressió a la xarxa».

La proposta de llei europea podria aprovar-se en els pròxims mesos, però, en cas de fer-ho, podria quedar encallada en els tribunals. L’agost del 2021, Apple va anunciar el llançament d’una eina que escanejava totes les imatges capturades des de dispositius com iPhone o iPad abans de pujar-les al núvol per detectar possibles casos d’abús sexual infantil. Tanmateix, l’allau de crítiques dels experts va forçar la companyia a abandonar el desenvolupament d’una tecnologia considerada «perillosa».

Nous problemes

Notícies relacionades

Un altre problema està començant a florir. Diversos estudis han alertat que en els últims mesos ha crescut el nombre d’imatges falses però realistes d’abús explícit a menors generades amb intel·ligència artificial (IA). Els experts creuen que el fàcil accés a aquestes eines n’augmentarà l’ús per part d’actors perillosos. Algunes empreses del sector, però, treballen en un nou sistema de detecció que els permeti actuar més ràpid.

L’automatització de la detecció d’aquest tipus de continguts també aixeca dubtes sobre la seva efectivitat. «El ‘cibergrooming’ comença fins i tot abans que s’enviï una foto, i també pot tenir lloc completament sense imatges», adverteix un article a Algorithm Watch. Les plataformes utilitzen sistemes per bloquejar termes explícits relacionats amb l’abús infantil, però els depredadors sexuals estan aprenent a utilitzar noves fórmules lingüístiques per eludir aquestes mesures. En una reacció en cadena, governs, acadèmics i agències policials hi estan responent amb nous sistemes de detecció més sofisticats. La seva fiabilitat encara no està clara.