30 d’oct 2020

Anar al contingut

La dictadura de l'algoritme

Així utilitzen les plataformes les teves dades per predir el que faràs

El model econòmic de les grans tecnològiques es basa en algoritmes intel·ligents capaços de calcular el nostre comportament futur

Empreses i polítics comercialitzen amb la nostra privacitat per vendre'ns millor els seus productes i idees i condicionar les nostres decisions

Carles Planas Bou

Així utilitzen les plataformes les teves dades per predir el que faràs

Connie Zhou

«La privacitat ja no és una norma social». Fent ostentació de sinceritat, Mark Zuckerberg va resumir el 2013 el model de negoci de Facebook i altres plataformes digitals omnipresents que ho saben tot de nosaltres, però de les quals a penes comencem a conèixer tot el que amaguen sota la superfície. ¿Quin és aquest model de negoci i quina part hi juga la nostra privacitat?

L’imperi de les xarxes socials es construeix sobre una premissa relativament senzilla: l’extracció de dades personals. La informació que poses en el teu perfil, les fotos que penges, la geolocalització del teu mòbil, les compres que fas, les paraules que busques, els missatges que envies i, fins i tot, els que acabes esborrant serveixen per engreixar els informes personals que les plataformes guarden de tu per analitzar el teu comportament.

«T’ofereixen una infraestructura i a canvi processen i exploten tota la informació que la recorre», assenyala Marta Peirano, periodista i investigadora d’aquests sistemes. Per primera vegada en la història, el big data creua milions de dades aparentment insignificants per conèixer el comportament humà.

Algoritmes intel·ligents

La clau del seu èxit és l’algoritme, codis computacionals que servint-se de la intel·ligència artificial processen milers de milions de dades per crear estadístiques i patrons sobre el teu comportament i amb què poden inferir què faràs en el futur. L’algoritme és la fórmula de la Coca-Cola de l’anomenat capitalisme de plataformes, una sèrie d’instruccions opaques que saben categoritzar un volum oceànic de dades personals i amb això recomanar-te coses que t’influeixin. Un ens eteri capaç de conèixer-nos millor que nosaltres mateixos.

«Són matrius gegants, milions de files i columnes amb dades i ja ni els programadors comprenen com operen exactament», advertia ja al 2017 la tecnosociòloga Zeynep Tufekci. «Funcionen amb una enorme quantitat de dades, així que fomenten una vigilància profunda sobre tots nosaltres perquè els algoritmes d’aprenentatge siguin més complets», afegia. Un model econòmic que ha portat Google a rastrejar els seus usuaris fins i tot quan navegaven en mode incògnit, cosa per la qual fa front a una demanda de més de 5.000 milions d’euros. No són només les dades que cedeixes, sinó el que se n’infereix. Quants més usuaris i activitat hi hagi, més precís serà el seu coneixement i les seves prediccions sobre nosaltres. «El problema no és que hi hagi xarxes socials, és que darrere hi ha una agenda econòmica basada en l’extracció de dades», assenyalava la doctora en Sociologia Liliana Arroyo en un acte de la Biennal de Pensament de Barcelona.

Tots hem viscut l’experiència de ser perseguits a la web per anuncis que reprodueixen el que hem llegit en un article o el que hem comentat amb amics per Whatsapp, des d’una estoreta per fer ioga a casa fins als millors hotels de Menorca. Això és a causa de l’algoritme. Quan Instagram ens recomana comptes divertits, Youtube ens porta a vídeos interessants i Spotify ens descobreix artistes que no coneixíem és perquè els seus algoritmes funcionen. La seva precisió per conèixer els nostres gustos és el que ens sedueix, però també el que ens reté.

Revolució de poder

Els algoritmes han suposat una revolució comercial. Aquests mecanismes intel·ligents aprenen de tota la informació que processen, cosa que els permet arribar on l’ull humà no veu, localitzant clients potencials que abans estaven amagats. Això pot servir perquè un supermercat recomani productes sense gluten a gent amb intolerància que viu a prop, però també per personalitzar anuncis polítics. Així ho va fer el 2016 la campanya presidencial de Donald Trump, que va disparar missatges racistes i notícies falses contra el seu rival cap als electors més susceptibles d’adoptar-los com a propis. A l’algoritme no li fa falta que hagis expressat la teva posició política obertament, se serveix del teu historial per conèixer-lo amb més detall.

No obstant, l’algoritme no és neutral. «Si la base de dades te biaixos racistes o masclistes això es filtra en la tecnologia», adverteix Peirano. Això ha portat a múltiples casos d’impacte desigual en els sectors socials més vulnerables o que les recomanacions es desviïn cap a continguts cada vegada més extrems, impulsant la radicalització. Tot i així, quan són caçades amb males pràctiques aquestes grans plataformes solen culpar un «error» de l’algoritme, el que la matemàtica i científica de dades Cathy O’Neil va anomenar ‘Math washing’. Un cap de turc abstracte que evita assumir responsabilitats.

D’Amazon  a Google, d’Uber TikTok, totes aquestes plataformes guarden gelosament uns algoritmes amb un codi que només es coneix a través de les filtracions d’enginyers i d’investigacions periodístiques. «Podem analitzar-ho a través de les conseqüències que té en la nostra atenció, en la nostra plasticitat cerebral, en la nostra democràcia i en la polarització social», explica Peirano, autora d’‘El enemigo conoce el sistema’. «El servei que et donen pot ser molt bo, però és a costa que ells ho decideixin tot», assegura.