Inteligència artificial
La IA tria els seus amics com fem els humans
Un estudi mostra que la IA replica patrons socials reals
La Intel·ligència Artificial (IA) mostra les mateixes preferències socials i patrons de relació que nosaltres: quan els grans models de llenguatge (LLM) prenen decisions sobre xarxes i amistats, tendeixen a actuar com les persones, tant en simulacions sintètiques com en contextos reals.
Investigadors de la Universitat Estatal d’Arizona i de la Universitat de Califòrnia a Davis, als Estats Units, han descobert que els grans models de llenguatge (LLM) formen xarxes socials d’amics i col·legues seguint les mateixes regles que sustenten les amistats i les relacions laborals humanes.
El nou estudi publicat a PNAS Nexus mostra que, quan es demana als models d’IA que triïn amb qui connectar-se, els agents virtuals reprodueixen patrons com l’homofília (preferència pels similars), les connexions a través d’amics en comú i l’atracció preferencial, és a dir, la tendència a unir-se a nodes ja molt connectats. Aquests patrons són els mateixos que s’observen entre els éssers humans.
Amistats artificials: la IA construeix vincles igual que els humans
Els autors van dissenyar un marc experimental en què múltiples LLM actuaven com a agents independents en simulacions que replicaven xarxes d’amistat, telecomunicacions i entorns laborals reals. A cada agent se li oferia informació sobre altres nodes, com el nombre de contactes, els veïns en comú i atributs com aficions o ubicació, i se’ls demanava decidir amb qui enllaçar.
Segons una nota de premsa, el resultat va mostrar clarament que les xarxes generades pels agents d’IA presentaven totes les propietats indicades prèviament i fins i tot d’altres, sota paràmetres propis i representatius de les xarxes humanes. A més, els models no aplicaven una regla única en tots els contextos, com també passa entre els humans.
En simulacions d’amistat predominava l’homofília, de manera que els agents preferien els semblants, mentre que en àmbits organitzatius afavorien l’heterofília, és a dir, la connexió amb figures d’estatus diferent, com supervisors o superiors. Aquesta adaptació contextual replica patrons observats en la mobilitat social humana i suggereix que els agents d’IA capten matisos socials més enllà de simples correlacions lògiques.
Per comprovar fins a quin punt aquestes decisions s’assemblen a les humanes, els investigadors també van dur a terme una enquesta controlada amb prop d’un centenar de participants reals, exposant els voluntaris humans a les mateixes eleccions de connexió que la IA.
Avantatges i riscos d’una IA que replica el comportament social humà
La comparació va mostrar una forta alineació entre les decisions humanes i les dels models d’IA, tot i que els agents artificials mostraven una consistència interna més gran que les persones. Això deixa clar que els LLM són reproductors eficaços de la dinàmica social, gairebé com rèpliques del comportament humà.
L’aspecte positiu és que aquests agents poden convertir-se en eines valuoses de simulació: permeten modelar intervencions en xarxes, com en salut pública, disseny organitzatiu o difusió d’informació, i generar conjunts de dades sintètiques que respectin la privacitat humana.
Notícies relacionadesD’altra banda, si la IA reprodueix biaixos socials, com preferències per grups concrets o desigualtats estructurals, podria reforçar discriminacions o facilitar manipulacions dirigides en entorns on els models interactuïn amb persones reals. Tot dependrà de la intenció de qui entreni aquests models.
Davant d’això, els investigadors destaquen la necessitat de dissenyar i alinear aquests sistemes amb criteris d’equitat i transparència, sobretot abans de desplegar-los a gran escala. Entendre que la IA “tria amics” amb lògica humana obliga a repensar no només com s’entrenen aquests models, sinó també quines normes i mesures de seguretat s’adopten quan intervenen en xarxes socials i professionals.
