Investigació

Itàlia bloqueja l’accés a ChatGPT per no respectar la protecció de dades

El regulador del país restringeix amb «efecte immediat» la popular aplicació d’intel·ligència artificial per una presumpta violació de la normativa europea en la recopilació d’informació dels usuaris

Itàlia bloqueja l’accés a ChatGPT per no respectar la protecció de dades
3
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

Itàlia ha bloquejat «amb accés immediat» l’accés a ChatGPT i ha obert una investigació contra el popular xatbot d’intel·ligència artificial (IA) per una presumpta violació de les normes de recopilació de dades.

En un comunicat publicat aquest divendres, l’agència italiana de protecció de dades ha decidit restringir provisionalment l’accés a ChatGPT perquè així no processi les dades dels usuaris del país fins que s’aclareixi si compleix o no el Reglament General de Protecció de Dades (GDPR), la pionera llei europea de privacitat.

«En la interlocutòria, el Garant de la Privacitat constata la falta d’informació als usuaris i a totes les parts interessades de qui recull dades l’OpenAI, però sobretot l’absència de base jurídica que justifiqui la recollida i emmagatzematge massiu de dades personals a fi d’«entrenar» els algoritmes que són subjacents al funcionament de la plataforma», diu el comunicat del regulador.

L’autoritat nacional italiana també ha acusat l’aplicació creada per la companyia OpenAI, amb el suport financer de Microsoft, de no comprovar l’edat dels seus usuaris. A priori, els menors de 13 anys no podrien utilitzar aquest sistema conversacional, però el regulador sospita que aquesta limitació podria ser paper mullat.

L’empresa nord-americana, que no té cap oficina a la Unió Europea (UE), té un termini de fins a 20 dies per anunciar quines mesures adoptarà per complir la petició de les autoritats italianes. Si no respecta la llei europea se li podria imposar una multa de fins a 20 milions d’euros o fins al 4% del volum de negocis anual global, segons explica el regulador en el seu comunicat.

Carrera frenètica

El llançament a finals de novembre de ChatGPT ha desencadenat una onada d’impactes que van més enllà del sector tecnològic. Microsoft ha adoptat aquesta tecnologia i l’ha integrat en la majoria dels seus serveis, des del cercador Bing a aplicacions d’oficina com Word i Excel. El multimilionari negoci que promet la IA ha impulsat altres gegants del sector, com ara Google i Meta (propietària de Facebook i Instagram), a seguir els mateixos passos. Totes s’han apuntat a una frenètica carrera empresarial sota una altra promesa, que això accelerarà la productivitat de les empreses.

En tan sols dos mesos, aquest xatbot capaç de simular converses humanes i respondre a tota mena de preguntes va arribar als 100 milions d’usuaris actius mensuals, cosa que la convertiria en l’aplicació de consum de més ràpid creixement de la història. El seu ús s’ha desplegat en tota mena de sectors, des de la premsa fins a l’educació, i s’ha popularitzat especialment entre els alumnes.

El 30 de març, el grup de defensa dels consumidors BEUC va demanar a les autoritats nacionals i de la UE que investiguessin ChatGPT. Itàlia és el primer país del club comunitari que opta per bloquejar temporalment l’accés a aquest xatbot. La setmana passada, l’aplicació va patir una violació de dades.

Riscos de ChatGPT

Notícies relacionades

La restricció italiana es deu a motius legals, però aquests generadors de text també suposen problemes ètics. Un dels principals riscos és que serveixi per amplificar la desinformació, ja que –per més que puguin simular el raonament humà– les seves respostes es basen en càlculs estadístics de la informació que extreuen d’internet, cosa que fa que en multitud d’ocasions caiguin en errors i falsedats. Aquesta mateixa setmana, l’Europol, l’agència policial de la UE, ha advertit en aquesta mateixa direcció i ha apuntat que ChatGPT també es pot instrumentalitzar per llançar campanyes de manipulació i de ciberdelinqüència.

Aquesta mateixa setmana, més de 1.000 personalitats de l’àmbit científic, empresarial i acadèmic van publicar una carta oberta en la qual demanen parar durant sis mesos l’entrenament de programes d’IA més potents que GPT-4, l’última generació del model de llenguatge que hi ha darrere de ChatGPT. Tot i que la missiva beu de la narrativa de Silicon Valley que sobredimensiona les capacitats d’aquesta tecnologia, denuncia que es tracta d’una «perillosa carrera» que tindrà conseqüències impredictibles.