Els límits de la intel·ligència artificial

Màquines infernals

Els robots no actuaran mai amb les regles de l'ètica perquè els enginyers no els les poden ensenyar

3
Es llegeix en minuts

L a noticia sobre el disseny de cotxes pilotats per robots fa una mica de basarda. Se suposa que en el futur immediat ja no conduirem els nostres vehicles: ho deixarem en mans de màquines. Millor dit: les màquines ens conduiran. Però ¿a on? Heus aquí una pregunta delicada. Un enginyer em comenta que els experts en intel·ligència artificial no saben com ensenyar a decidir als robots en el cas que determinades circumstàncies conflueixin en un accident de trànsit. Per exemple, si uns vianants passen per la vorera, ve un camió de cara i cal envair la vorera per no morir, ¿què faria un robot? ¿Salvar la meva vida o bé la dels vianants? La idea dels enginyers és programar aquestes màquines ensenyant-los ètica, però no saben com. Tenen raó: es tracta d'un veritable problema tècnic molt  anterior als cotxes pilotats per robots.

Els humans no ens hem deixat de preguntar fa una pila d'anys si l'ètica es pot ensenyar, no diguem als robots, sinó d'entrada als nostres preuats conciutadans, que tampoc acaben de sortir gaire ben parats d'aquest afer. Aristòtil digué que l'ètica només es pot aprendre coneixent persones ètiques. La manera d'aprendre la prudència és pel tracte amb Pèricles, home prudent. Per tant, l'ètica no s'ensenya sinó que -per dir-ho així- s'encomana. És quelcom que es viu i no es programa. L'ètica és d'una gran densitat i complexitat: no hi ha ètica sense consciència, no hi ha ètica sense desig. El meu amic el filòsof Joan-Carles Mèlich, que ha escrit molt sobre aquest afer, defensa que només es pot ensenyar la moral: el conjunt de valors en una determinada societat i època històrica. L'educació s'encarrega de transmetre què està bé i què no. Tanmateix, a vegades és ètic anar en contra de la moral establerta quan la considerem injusta o inhumana: ¿no és això el que van fer els resistents a la segona guerra mundial? ¿No és això el que han fet en part els moviments alternatius i antisistema, o les grans revolucions? ¿Es podria programar un robot perquè, en un moment donat, qüestionés l'ordre moral establert, la representació paradigmàtica del que ha estat programat, és a dir, ¿què s'espera de nosaltres en determinades circumstàncies? Aquest és el contrapunt que Assimov plantejà en el seu relat Jo, robot. El robot protagonista del conte presentava un disfuncionament: tenia consciència de la seva finitud i a més a més somiava. En els somnis hi ha una subjectivitat no reductible al software, que implica no preveure què faríem en un moment donat. En el cas dels principis morals, si davant d'una disjuntiva sempre podrem fer una doble llista de raons a favor i en contra, ¿com decidir? L'ètica diria amb una acció inconsistent, no determinada lògicament, és a dir, en els marges de tota argumentació racional. Seria inconsistent sacrificar la meva vida per salvar la dels vianants, però una vida pot valer per deu i deu vides són d'un valor incalculable: cap càlcul ni algoritme les pot representar.

Segons això, seria complicat programar una màquina perquè sigui ètica, perquè no hi ha altra ètica que la resposta singular a una circumstància concreta de l'existència. I l'existència només és possible si tenim consciència del món i dels altres, cosa que ni una màquina de màxima precisió -però tampoc una persona- podrien programar. Un robot potser podria ser moral, en el sentit de processar

Notícies relacionades

un conjunt de principis preestablerts i aplicar-los sense error. Però ja sabem on condueix a vegades una moral sense fissures: al gulag o al camp de concentració. Per tant: en termes ètics, no hi ha a priori que valgui ni càlcul de risc ni algoritmes de precisió. Diguem-ho clar. Davant d'una situació difícil, ¿què és ètic? No ho sabem fins que ens hi trobem. ¿Com responem a l'altre? ¿Què és millor? Heus aquí la qüestió ètica,perquè resulta que no hi ha ètica sense pregunta, però tampoc sense responsabilitat pels nostres actes. La pregunta és en certa manera una suspensió momentània de l'acció, que vacil·la per després actuar segons una idea pràctica del bé. Així s'han desactivat els totalitarismes, posant pals a la roda de l'obediència deguda. Qüestionant les ordres, encara que vinguin d'un programa informàtic. Potser, en determinades circumstàncies delicades com un accident, caldria simplement desactivar el sistema del robot i delegar -de manera imperfecta- en els humans. Perquè els enginyers podran ensenyar moral als robots i els robots podran decidir per nosaltres, però l'ètica no la podran ensenyar els uns ni aplicar-la els altres. I si una màquina pretén fer-ho, o l'enginyer que la dissenya, en lloc de ser bo, serà molt més que dolent:  serà infernal.

Professora de la Facultat de Ciències de l'Educació Blanquerna-URL.