Tecnologia i dret
Jurisprudència «inventada» i risc de dades en obert: els casos de mala praxi per ús d’IA arriben als tribunals
El Tribunal Constitucional ja ha efectuat un apercebiment i hi ha avisos contra advocats a Navarra, les Canàries i Alacant, a les quals se sumen queixes contra jutges davant del CGPJ
El CGPJ debat avui un pla de formació i una instrucció sobre l’ús d’IA per als jutges
El setembre del 2024, el Tribunal Constitucional va imposar a un advocat de Barcelona una sanció d’«apercebiment» per faltar al «respecte a aquest òrgan mitjançant la presentació d’una demanda que incloïa 19 suposades cites de sentències que en realitat no existien. Tot i que el Constitucional no va arribar a aclarir si la causa va ser l’ús d’IA o simplement unes cites d’arguments propis, per als experts en l’ús d’aquest tipus d’eines aquest cas va suposar un primer toc d’atenció.
Així ho assenyala a EL PERIÓDICO Manuel Mata, responsable de Deontologia del Col·legi General de l’Advocacia Espanyola (CGAE) i degà del Col·legi d’Advocats de Castelló. «Els magistrats ho van enfocar com una falta de respecte i deslleialtat i ho van traslladar al col·legi professional de Barcelona». Des del seu punt de vista, més que una deslleialtat ell veu en aquest cas mala praxi. «Quan prepares una demanda tens l’obligació de revisar i entregar un document adequat perquè qui estàs perjudicant és el teu propi client, has d’assegurar-te que tingui vies de prosperar», assenyala.
Des d’aleshores, i ja sí identificats com a mala praxi en l’ús d’IA, s’han donat a conèixer diversos casos que incideixen en la inclusió en les demandes de jurisprudència inexistent –per «al·lucinacions» de l’eina que no es depuren– o al·lusió a normes penals d’altres països.
Contra jutges
S’hi afegeixen queixes davant el Consell del Poder Judicial contra jutges per introducció en obert de dades confidencials o un presumpte ús indegut d’aquestes eines en la valoració de prova, segons assenyala a aquest diari el vocal i magistrat del Tribunal Suprem José Antonio Montero, que treballa per elaborar una instrucció que serà aprovada pròximament per ajudar els jutges a espavilar-se en l’ús dels motors d’IA generativa.
L’acció de responsabilitat contractual per mala praxi en l’advocacia està regulada per l’article 1101 del Codi Civil, que estableix que els que en el compliment de les seves obligacions incorren en negligència estan subjectes a indemnització per danys i perjudicis. S’hi suma la responsabilitat disciplinària que es pugui aplicar pels col·legis professionals. Els jutges també estan subjectes a règim de sancions si actuen indegudament.
Canàries, Alacant i Navarra
El 5 de gener, la Sala Penal del Tribunal Superior de Justícia de les Canàries va informar de l’obertura d’una investigació per possible falta a la bona fe processal d’un advocat en un recurs d’apel·lació. Incloïa jurisprudència inventada i també al·lusions a un pretès informe del Consell General del Poder Judicial sobre credibilitat del testimoni infantil que tampoc existia, i que presumptament van ser generats per eines d’intel·ligència artificial. Els recursos es van presentar contra l’absolució d’un home jutjat per agressió sexual a Tenerife.
Diàleg dels androritmes amb els algoritmes vist per la IA. /
Per als jutges canaris, es tracta d’un cas de negligència per part del lletrat, que hauria fiat la seva feina, «sense més revisió, al que l’algoritme li va proposar». Per això va obrir peça separada per investigar aquesta possible negligència i va traslladar els fets al col·legi professional.
Una cosa semblant va passar a Alacant. Segons el diari ‘Información’, pertanyent amb El PERIÓDICO al grup editorial Prensa Ibérica, l’Audiència Provincial ha denunciat recentment davant el Col·legi de l’Advocacia d’aquesta província un altre professional per haver-se inventat cites d’una sentència del Tribunal Suprem, i ha assenyalat que podia formar part d’una «al·lucinació» de la IA, però sense descartar que hi pogués haver voluntat d’enganyar el tribunal. L’advocat pretenia emparar-se en la llei de segona oportunitat en relació amb un deute de més de 100.000 euros d’un dels seus clients amb la Seguretat Social.
Un dels primers casos coneguts va passar a Navarra el juny del 2024, en aquesta ocasió per la presentació d’una querella en què s’invocava l’aplicació d’un precepte del Codi Penal que en realitat corresponia amb l’ordenament jurídic de Colòmbia.
En aquest cas la querella va ser inadmesa pel Tribunal Superior de Justícia i es va obrir una investigació per determinar si havia existit un abús de dret o mala fe processal. En el marc d’aquestes indagacions, l’advocat va reconèixer haver utilitzat parcialment el ChatGPT-3 i es va excusar admetent que havia comès un error material gros, tot i que «involuntari». Per als jutges, l’error no va estar en l’ús de la IA, sinó en la falta de verificació pel lletrat, però va acabar arxivant l’assumpte.
Va ser la Fiscalia
En un altre cas recent, la denúncia presentada contra el Jutjat número 5 de Ceuta davant el Consell General del Poder Judicial va resultar aliena a les «al·lucinacions» o mala praxi per IA, ja que el que va passar en realitat és que la fiscalia va cometre un error al fer un «retalla/enganxa» de jurisprudència que el magistrat en qüestió no va comprovar després. El cas va ser denunciat per un advocat de Ceuta la personació del qual no va ser admesa en una causa en la qual el seu client es trobava en recerca i captura.
Edifici dels Jutjats a Ourense /
Segons el parer del lletrat, les sentències citades en la interlocutòria no existien i havien sigut generades per IA, però una comprovació posterior va treure a la llum que l’error tenia el seu origen en què la fiscal del cas es va equivocar a l’introduir-les. Les resolucions citades sí que existien, tot i que referides a delictes contra la llibertat sexual. La Fiscalia pretenia al·ludir a aquestes en un altre assumpte diferent, però es va equivocar al mantenir els dos documents oberts en la seva pantalla d’ordinador. En tot cas, aquest «error material involuntari» no va ser detectat pel jutge.
Principis deontològics
Notícies relacionadesEl que ha passat a Ceuta ens torna a remetre a l’expert en Deontologia del CGAE, que puntualitza que la mala praxi ja existia abans que els advocats, jutges o fiscals acudissin a aquests motors d’IA, per la qual cosa no veu necessari modificar els principis bàsics que ja apareixen en els codis deontològics vigents. Els més avançats en aquesta matèria són els despatxos d’advocats nord-americans, als quals s’obliga a conèixer el funcionament dels motors que utilitzen i advertir els seus clients que utilitzaran IA en els seus casos. També poden buscar-se problemes si pengen documents sense anonimitzar.
«Ben aviat tindrem sentències en què es vegi que hi ha una utilització d’intel·ligència artificial», augura. També alerta d’altres usos que obren el debat deontològic en els col·legis professionals, com l’aparició en algunes pàgines web de despatxos d’advocats de sistemes automatitzats de conversa, els xatbots. Si un client fa una petita consulta en aquesta eina i després el despatx en qüestió defensa la part contrària es podria incórrer en un conflicte d’interessos. «Al final, els problemes deontològics que provoca la IA són els mateixos que ja existeixen, però amb una nova dimensió», conclou Mata.
Ja ets subscriptor o usuari registrat? Inicia sessió
Aquest contingut és especial per a la comunitat de lectors dEl Periódico.Per disfrutar daquests continguts gratis has de navegar registrat.
- Crisi ferroviària Rodalies Barcelona compleix la meitat dels horaris programats el 2025, el nivell més baix de tots els nuclis de l'Estat
- Finances personals Fi a les targetes de crèdit imposades pels bancs: el Govern prohibirà que obliguin els seus clients a tenir-les
- Oncologia a Espanya El càncer de pulmó supera per primera vegada el càncer de mama com a causa de més morts en dones
- Previsions per al 2026 Espanya diagnosticarà aquest any més de 8.000 càncers en joves: 3.400 en homes i 4.800 en dones
- NEU A LA CAPITAL Diari d’un Madrid col·lapsat per la borrasca Kristin: «Una família ha quedat atrapada per la caiguda d’una branca dins de casa»
