Intel·ligència artificial

Una recerca d'UManresa sobre ètica demostra que la intel·ligència artificial cau en les mateixes contradiccions que les persones

Un grup d'estudiants compara les respostes d'una enquesta plantejada a un miler de persones a partir de supòsits quotidians amb la posició que mantenen diversos sistemes d'intel·ligència artificial generativa

Una investigació dUManresa demostra que la IA cau en les mateixes contradiccions ètiques que les persones

Una investigació dUManresa demostra que la IA cau en les mateixes contradiccions ètiques que les persones / Regió7

2
Es llegeix en minuts
Josep Lluís Micó

Els estudiants del tercer curs del Grau en Gestió de la Societat Digital d'UManresa han culminat una investigació en què han demostrat que els sistemes d'intel·ligència artificial (IA) generativa incorren en les mateixes contradiccions o incoherències ètiques que les persones. D'aquesta manera, davant les mateixes situacions, el programari pot reaccionar de diferent forma, és a dir, com passa amb els éssers humans. 

Per arribar a aquesta conclusió, els alumnes van començar dissenyant aquest primer semestre del curs acadèmic 2025-2026 una enquesta que, posteriorment, van distribuir entre un miler de ciutadans. Les preguntes i les possibles respostes que van incloure en el qüestionari estaven dividides per categories: conflictes relacionats amb la família, les amistats, les relacions sentimentals, l'educació, l'àmbit laboral, el comportament social, l'actitud digital, la dimensió política, la vessant de gènere i l'oci o el lleure. 

Els destinataris tenien diverses edats, sexes, llocs de residència i nivells d'estudis, per assegurar una varietat semblant a l'existent a la societat catalana, espanyola o europea. Cadascun dels deu alumnes de la classe matriculats a l'assignatura Ètica i desigualtats a la societat digital es va responsabilitzar d'un centenar d'enquestats. Els percentatges de voluntaris que van contestar els interrogants oberts pels universitaris va oscil·lar entre la meitat i pràcticament la totalitat, en funció de l'alumne.

Els primers resultats aconseguits es van complementar amb una sèrie de converses, enregistrades i editades en vídeo, amb un reduït col·lectiu d'entrevistats sobre dubtes o problemes amb una marcada dimensió ètica, més enllà de la moral d'un lloc o d'un moment concrets i de la legalitat vigent. El seu parer i els arguments amb què el defensaven van permetre enriquir en clau qualitativa la base quantitativa que el conjunt de companys ja havia anat construint. Però encara calia superar un dels reptes més estimulants de l'activitat lectiva. 

La IA, element de la cinquena revolució industrial amb què aquests joves treballen regularment amb criteris avançats, és capaç de rastrejar i gestionar un volum d'informació tan elevat que cap subjecte podria processar-lo en tota la seva vida. A més, ho sap fer en un temps mínim i ponderant l'autoritat de cada font. Per tant, cabria pensar que les seves propostes ètiques, fonamentades en les aportacions teòriques dels principals filòsofs de la història de la humanitat, seran sempre les més adequades o pertinents? O sigui, seran les més beneficioses per a la comunitat?

Notícies relacionades

Els autors d'aquest experiment, integrants de la primera promoció d'una carrera que la UManresa està desplegant des de la Facultat de Ciències Socials, van constatar que les intervencions varien depenent de qui formuli la petició. I també que una sola pregunta és susceptible de tenir respostes antitètiques, malgrat que s'empri un sol software: ChatGPT, Claude.ai o qualsevol altre. Això sí, sempre dins d'una certa neutralitat, lluny dels extrems o les solucions radicals.

La tendència general de la IA al diàleg, la mediació o, si més no, la neutralitat, així com la seva inclinació particular a donar la raó als seus usuaris per reforçar-ne la posició ha proporcionat determinades sorpreses. Per exemple, el silenci o la passivitat davant del masclisme. O un tarannà tebi en cas de sofriment animal o corrupció política.