Normes sobre les patents

La Unió Europea obligarà ChatGPT a revelar si viola els drets d’autor

  • Les claus de la pionera llei europea que regularà l’IA

  • Els interessos comercials que s’amaguen darrere del frenesí de l’IA

La Unió Europea obligarà ChatGPT a revelar si viola els drets d’autor
3
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

La Unió Europea (UE) obligarà les empreses que utilitzin aplicacions d’intel·ligència artificial generativa, com ChatGPT, a revelar si utilitzen qualsevol material protegit per drets d’autor. Així s’estableix en el principi d’acord a què els legisladors de les principals comissions del Parlament Europeu van arribar aquest dijous per donar forma a la llei pionera que regularà l’ús de l’IA.

El consens parlamentari estableix que l’ús de sistemes generatius haurà de ser més transparent, i forçarà les companyies a publicar un «resum prou detallat» del tipus de material amb què s’ha entrenat el seu sistema i si estan protegits pels drets d’autor. Brussel·les ha optat per aquesta via després de les denúncies contra ChatGPT, però també altres aplicacions com Midjourney, per utilitzar textos o imatges d’altres persones sense el seu consentiment. Aquests sistemes també s’hauran de dissenyar d’acord amb les lleis de la UE.

Segons Reuters, alguns membres del comitè encarregat de redactar la llei van proposar prohibir totalment l’ús d’aquest material, però finalment s’ha apostat per requerir més transparència en una disposició que es va afegir a última hora. Això donarà un impuls a la indústria editorial i als creatius que havien denunciat quedar exposats i indefensos davant l’auge de l’IA.

El principi d’acord encara està subjecte a possibles modificacions que s’hauran de votar l’11 de maig. El text haurà de ser negociat entre els legisladors i els estats membres perquè arribi a bon port. S’espera que a mitjans de juny el Parlament Europeu voti una llei que estarà a l’avantguarda mundial.

Llei pionera

Després de tres anys de consultes i discussions, la Comissió Europea va legislar l’abril del 2021 i per primera vegada la creació d’una llei que reguli aquesta tecnologia. Els eurodiputats encarregats amb aquesta tasca van dedicar més d’un any i mig a desenvolupar una proposició, però la irrupció el novembre passat de ChatGPT –impulsada per la companyia OpenAI, participada per Microsoft–, els va obligar a repensar aquest text. Des d’aleshores, han estat negociant com regular una IA generativa la popularitat de la qual s’ha disparat en els últims mesos, i que ha propiciat una carrera entre grans empreses per desplegar aquest tipus d’eines.

La vertiginosa expansió de l’ús de ChatGPT ha obert un profund debat regulatori arreu del món. I és que en tan sols dos mesos el sistema va arribar als 100 milions d’usuaris. A Europa, Itàlia ha bloquejat l’accés a l’‘app’ a l’entendre que podria estar violant les lleis comunitàries de protecció de dades. Per la seva banda, el regulador espanyol ha obert una investigació contra aquest xatbot mentre els seus homòlegs europeus han creat un grup de treball per coordinar futures accions.

Sistemes de risc

El projecte de llei proposa regular l’IA segons uns usos que categoritza segons els seus riscos. «Com més greu sigui el risc que pot comportar més ferma i estricta serà la norma», va explicar fa dos anys la vicepresidenta europea, Margrethe Vestager.

Notícies relacionades

Així, Brussel·les prohibirà els sistemes de «risc inadmissible», és a dir, la vigilància massiva, la policia predictiva o la categorització de ciutadans a través de dades biomètriques. En un segon nivell hi ha els sistemes d’«alt risc», com l’ús d’algoritmes per a processos de contractació laboral o per a la concessió de crèdits, que estaran subjectes a «obligacions estrictes». Els legisladors de centreesquerra han aconseguit que en aquesta categoria també estiguin els sistemes de recomanació de grans plataformes, és a dir, els algoritmes que decideixen quins continguts veuen els usuaris a Facebook,Twitter,Instagram,TikTok i altres xarxes.

En el tercer nivell hi ha els de «risc limitat», entre els quals s’inclouen l’ús de bots conversacionals o els ‘deepfakes’. En aquest cas, s’haurà d’informar els usuaris perquè siguin conscients que interactuen amb una màquina, no amb un humà. Finalment, hi ha els sistemes de «risc mínim o nul», que no estaran subjectes a cap requisit i que afecta la majoria dels usos d’IA.