Falta de privacitat

La IA que utilitzes per xatejar està filtrant les teves converses

Un estudi de l’IMDEA Networks Institute alerta sobre la integració de rastrejadors de tercers que exposen dades de conversa i activitat en xatbots com ChatGPT, d’OpenAI; Claude, d’Anthropic; o Grok, d’Elon Musk

Un usuario consulta apps de chatbots de IA como ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Perplexity, Copilot (Microsoft), Meta AI, Grok (xAI) o DeepSeek.

Un usuario consulta apps de chatbots de IA como ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Perplexity, Copilot (Microsoft), Meta AI, Grok (xAI) o DeepSeek. / Philip Dulian / DPA

2
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Recentment, el director executiu d’OpenAI, Sam Altman, va explicar en un pòdcast quin és l’objectiu final de models d’intel·ligència artificial com ChatGPT. «No som tan lluny d’un model d’IA que ho sap tot del teu context, sobre tu, sobre la teva vida. Que sap tot el que fas i el que t’importa, que coneix tota la gent que forma part de la teva vida».

Aquesta visió no inclou una realitat més preocupant: els assistents d’IA generativa amb qui xateges estan filtrant les teves converses. Un recent estudi de l’IMDEA Networks Institute adverteix que productes cada vegada més populars com ChatGPT, Peplexity, Claude o Grok tenen «riscos estructurals», ja que integren rastrejadors de tercers com Meta o Google que «poden exposar els temes de conversa dels usuaris, les pàgines web visitades i fins i tot captures de pantalla» de l’activitat dels usuaris.

La falta de privacitat dels xatbots d’OpenAI, Anthropic, Perplexity o xAI, d’ Elon Musk, va més enllà. I és que, segons la investigació, també podrien filtrar la identitat dels usuaris i metadades confidencials. La generació de captures de pantalla es dona només a Grok.

Els xatbots poden exposar els temes de conversa dels usuaris, les pàgines web visitades i fins i tot captures de pantalla

Chatbots «insegurs»

A més, assenyalen que els mecanismes de control d’accés d’aquests grans models de llenguatge (LLMs, per les sigles en anglès) són «insegurs», ja que només fa falta un «simple enllaç» a una conversa per accedir al seu contingut. Això fa que tots els xats siguin, a la pràctica, «públics per a qualsevol (inclosos els rastrejadors) que tingui la URL».

L’estudi adverteix que, malgrat que aquests xatbots ofereixen controls de privacitat per limitar la visibilitat de les converses, aquests són «potencialment enganyosos», ja que «poden induir a error els usuaris al donar a entendre que ofereixen proteccions més sòlides de les que realment s’apliquen». Per acabar-ho d’adobar, els formularis de consentiment de cookies «presenten altres deficiències de transparència».

Una persona utilitza l’aplicació d’intel·ligència artificial ChatGPT a l’ordinador. /

Europa Press
Notícies relacionades

El problema que els investigadors han detectat no és exclusiu dels assistents d’IA, sinó una extensió de les «dinàmiques econòmiques subjacents basades en dades» que donen forma a l’ internet actual, en el qual gegants com Google, Meta o TikTok col·loquen els seus rastrejadors a la web per mesurar el comportament dels usuaris i vendre aquesta informació als anunciants que volen enviar-los publicitat.

L’estudi ha detectat aquestes vulnerabilitats, si bé indica encara no disposa de proves que els rastrejadors llegeixin aquestes converses. Els seus autors indiquen que pròximament ampliaran la investigació per incloure altres serveis com Gemini, de Google; Copilot, de Microsoft; o Meta AI, de la propietària de Facebook i Instagram; empreses que operen alhora com a proveïdors d’IA i rastrejadors, una cosa que les converteix en «un model d’amenaça diferent».