RISCOS DE LES NOVES TECNOLOGIES

Un psiquiatre a Facebook

La xarxa social anuncia l'ús d'intel·ligència artificial per detectar possibles intents de suïcidi

Zuckerberg adverteix que l'eina podria estendre's a casos d'assetjament i odi

support-for-broadcaster-screenshot

support-for-broadcaster-screenshot

3
Es llegeix en minuts
Carmen Jané
Carmen Jané

Redactora

Especialista en Periodista especialitzada en tecnologia, continguts digitals i elearning. Escric des de Última Hora.

ver +

El mur de Facebook ja apunta que es pot convertir en el divan, i potser en el psicòleg, del món. Els responsables de la xarxa social més popular (1.860 milions de persones a finals del 2016) van anunciar aquest dilluns que començaran a aplicar filtres d’intel·ligència artificial per detectar els estats d’ànim depressius que podrien portar al suïcidi. Per a això escanejaran comentaris, fotografies i vídeos a la recerca de «patrons» com ara frases o actituds que puguin fer pensar que algú pensa a treure’s la vida. Els seus algoritmes llançaran llavors una alerta a l’usuari per oferir-li ajuda però a la vegada avisaran empleats de la companyia que poden donar la veu d’alarma a agents policials que aquesta persona podria estar en perill. I a partir d’aquí, tornem a la vida analògica: comprovacions i assistència mèdica si és necessari.

La mesura suposa anar un pas més enllà: el fet que siguin màquines i no persones les que llancin l’alerta i es tingui en compte. Fins ara, Facebook permet informar (més aviat denunciar) un usuari que un dels seus amics del mur podria estar en situació de pensar en el suïcidi i un equip de revisors contractats per la xarxa social ho revisa i llança l’alerta, si ho considera procedent. Diverses denúncies sobre usuaris que es van suïcidar mentre utilitzaven la funció Facebook Live, que retransmet vídeo en directe, mentre altres suposats «amics» del seu cercle els animaven o feien broma sobre la situació han fet que l’empresa es replantegi la seva política i introdueixi filtres automàtics en textos, fotos i vídeos.

Segons afirmava aquest dimarts el fundador i màxim responsable de Facebook, Mark Zuckerberg, en un missatge a la xarxa social, es tracta d’«un important pas endavant» per ajudar a prevenir suïcidis que «permet respondre 100 vegades més ràpid» que fins ara.

FORMACIÓ ALS EMPLEATS

Segons explica Guy Rosen, vicepresident de producte de la companyia, aquesta campanya antisuïcidis també implica «dedicar més revisors» a analitzar les denúncies i «millorar com identifiquem els primers que responen» (als Estats Units hi ha acords amb oenagés dedicades al tema). Rosen afirma també, en el comunicat oficial fet a través de Facebook, que els seus circuits seguiran donant prioritat als missatges humans llançats des de l’aplicació i que la intel·ligència artificial s’utilitzarà com a mecanisme complementari. Assegura així mateix que els seus tècnics han rebut formació específica sobre com detectar més encertadament tendències suïcides o d’autolesions.

El recurs automàtic s’implantarà en diversos països, encara que no a la Unió Europea. Tot i que el directiu de la xarxa social no explica els motius en l’article, en una entrevista posterior amb Reuters atribuïa la raó a les «diferents sensibilitats» sobre el tema de protecció de la privacitat.

Per als professionals de la salut mental, no obstant, hi ha un patró detectable. «Més enllà de missatges obvis com ‘No puc més’, una persona amb intenció de suïcidar-se pot mostrar trets com publicar cançons tristes, manifestar actituds impulsives com comprar més del compte o mostrar certa promiscuïtat, o fins i tot arribar després a estats de millora sobtada com mostrar-se en pau amb ell mateix i que tot ja està lligat. Si avui a Facebook li expliquem la vida, també es pot explicar això», afirma el psicòleg Andrés Montes.

ALTRES USOS

Després de l’anunci de la nova eina, Zuckerberg va més enllà i no amaga que «en un futur, la intel·ligència artificial serà capaç d’interpretar millor els matisos subtils del llenguatge, i serà capaç d’identificar diferents temes més enllà del suïcidi, inclosos més tipus d’assetjament i odi». Fins ara, Facebook permet a un usuari denunciar-ne un altre si pateix violència o assetjament, publica nus o actes sexuals, envia spam o realitza vendes no autoritzades, llança proclames d’odi a algun col·lectiu o qualsevol altra causa que consideri denunciable, com ara terrorisme o pederàstia, dos casos en què fins ara s’usaven alertes automàtiques.

DILEMES ÈTICS

Notícies relacionades

«Facebook ha anat contractant gent per censurar continguts, alguns amb polèmica. Ara la censura l’aplicarà una màquina. I això planteja dilemes ètics com quin és el criteri o a qui reclamar», afirma Ulises Cortés, director del grup d’intel·ligència artificial del Barcelona Supercomputing Center. 

«¿Quin dret té algú per diagnosticar un estat depressiu sense ser un professional, decidir a qui ha d’avisar i quines accions prendre? ¿I com utilitzarà després aquesta informació, si això assenyalarà la persona, la seva família o els seus amics?», pregunta.