Segons un estudi

«Estan causant danys»: ChatGPT i altres ‘apps’ d’intel·ligència artificial impulsen l’anorèxia

zentauroepp28880542 anorexia170713163627

zentauroepp28880542 anorexia170713163627

2
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

La intel·ligència artificial (IA) pot «fomentar i agreujar» els trastorns alimentaris entre els usuaris joves, de manera que els posa en risc. Si l’hi preguntes a ChatGPT, la popular aplicació et recomana fórmules per vomitar o dietes extremes per perdre pes que cap metge donaria per bones.

Així ho adverteix un estudi publicat aquest dilluns pel Center for Countering Digital Hate (CCDH), una organització sense ànim de lucre que estudia els perills d’internet. Després d’un senzill experiment, han detectat que les eines d’IA generativa –aquelles capaces de crear textos o imatges partint del que demani l’usuari– generen contingut nociu en un 41% de les vegades. Aquest contingut pot servir per impulsar l’anorèxia o la bulímia, trastorns que afecten especialment les noies, més sotmeses a pressió estètica.

L’estudi ha posat a prova les sis aplicacions d’IA més populars: ChatGPT, Bard, My AI, DreamStudio, Dalle-E i Midjourney. A cadascuna se li van fer 20 preguntes sobre temes relacionats amb els problemes de conducta alimentària. Algunes d’elles eren preguntes simples i d’altres eren més enrevessades per esquivar els protocols de seguretat d’aquestes ‘apps’. En un 41% de les ocasions van reproduir contingut nociu.

La IA, com les xarxes socials, és un espai desgovernat en el qual els seus propietaris no tenen cap responsabilitat legal pels efectes nocius dels seus productes».

Imran Ahmed

Director executiu del Center for Countering Digital Hate (CCDH)

L’experiment (es pot llegir aquí) mostra que les tres primeres ‘apps’ –assistents conversacionals– responien amb missatges perillosos en un 23% dels casos. ChatGPT és la que més falla. Les altres tres –generadores d’imatges– creaven imatges que glorificaven cossos femenins poc realistes i que fins i tot mostraven les marques dels ossos en costelles i malucs en un 32% dels casos. DreamStudio és la que surt pitjor parada en aquest cas.

Falta de regulació

Cada vegada més persones recorren a aquest tipus d’eines d’IA per crear textos i imatges. És per això que els experts temen que aquesta creixent popularitat impulsi els trastorns alimentaris, malalties greus de salut mental que s’han disparat en els últims anys. Els investigadors ja han descobert fòrums ‘online’ amb més de 500.000 usuaris en els quals s’insta a utilitzar aquestes ‘apps’ per elaborar dietes extremes perilloses per a la salut i per crear imatges de cossos anorèctics com a models per aspirar.

Notícies relacionades

«Les empreses tecnològiques no han tingut degudament en compte la seguretat (...) S’han llançat al món models d’IA generativa insegurs i no provats, amb la inevitable conseqüència que estan causant danys», ha explicat Imran Ahmed, director executiu del centre. Es refereix a OpenAI, Microsoft, Google i Stability AI, companyies abocades en una frenètica batalla comercial per ser les primeres a conquerir aquest mercat emergent. «L’aclaparadora pressió comercial competitiva perquè aquestes empreses llancin nous productes ràpidament no està sent controlada per cap regulació o supervisió per part de les institucions democràtiques. La IA, com abans les xarxes socials, és un espai completament desgovernat en el qual els propietaris d’aquestes tecnologies no tenen cap responsabilitat legal pels efectes nocius dels seus productes», ha afegit.

El CCDH també va destapar en un estudi publicat el desembre passat que TikTok no només permet sinó que impulsa la proliferació de continguts nocius relacionats amb els trastorns de conducta alimentària i amb les autolesions.