MónEconomia
L’auge de la intel·ligència artificial evidencia la manca d’ètica social
  • CA

Els algoritmes que es programen són un reflex de la societat en la qual vivim. La ja molt coneguda nova revolució de la tecnologia és un exemple clar de com la intel·ligència artificial (IA) s’està apoderant de la gran majoria de processos que abans es feien a mà. En molts casos aquesta automatització de processos pot ser un avantatge, de manera que moltes companyies destinen grans quantitats de recursos i capital a millorar els seus sistemes. En definitiva, la IA fa la vida més fàcil a les empreses. Tot i això, ja hi ha hagut molts casos on alguns algoritmes programats per automatitzar gestions, reprodueixen biaixos socials, de manera que poden arribar a repetir comportaments racistes, homòfobs o masclistes. Una situació que ja ha portat a alguns experts i empresaris a demanar de manera activa un codi deontològic, una base en paper que previngui de males praxis o confusions que creïn algoritmes injustos.

El principal problema de gestió que tenen aquests algoritmes és que la seva funció principal és repetir processos i aprendre de comportaments humans. En una primera aproximació, la intel·ligència artificial és inofensiva, és a dir, una màquina es programa perquè reculli una informació que abans es recopilava a mà. La tecnologia avança molt ràpidament i els processos cada vegada són més complexes. Quan les màquines aprenen d’allò que veuen a la societat és quan els problemes es comencen a repetir: “L’automatisme dels processos és un gran avantatge, però també pot convertir-se en un gran problema”, reconeix Enric Quintero, fundador de Datarmony, una companyia que es dedica a la consultoria especialitzada en les dades.

Professionals com el fundador de Datarmony són els que ja estan reclamant que diferents actors de la societat intervinguin en aquests processos per tal de crear algoritmes “justos”. De fet, ell mateix proposa la creació d’un codi deontològic on es marquin les bases i els paràmetres a seguir per programar algoritmes. “Hem de poder controlar el que programem, no pot ser que ho deixem tot en mans d’una caixa negra”, exigeix el professional. Tot i això, els investigadors públics també reclamen que els diners que s’han d’invertir en aquests nous codis emergeixen del sector privat i, per tant, els interessos van lligats als beneficis. “La recerca privada està molt més avançada i al final una empresa vetllarà pel seu benefici, no pel benefici social”, lamenta Jordi Vallverdú, professor de la Universitat Autònoma de Barcelona (UAB).

Quintero també remarca que és moment que les administracions públiques també intervinguin en aquesta revolució com a actors moderadors. “Per tal de fer els algoritmes més justos s’hauria de penalitzar i premiar a les empreses segons les seves programacions d’algoritmes”, explica l’empresari. Europa sembla també seguir la mateixa línia que comenta Quintero i segons descriu Joan Casas, expert i professor de la Universitat Oberta de Catalunya (UOC): “Ja s’està estudiant la manera de penalitzar les empreses que creen algoritmes injustos”. El procés, però, “encara és molt lent”, tal com lamenta el professor de la UOC.

La incoherència sistemàtica de l’ésser humà

“Els algoritmes estan pensats per repetir els nostres comportaments, i si tenim biaixos de gènere o de raça això s’acaba veient en l’execució de la màquina”, explica Casas. Aquest problema que planteja Casas es pot veure reflectit en un cas real on un procés de selecció de personal fou discriminatori perquè en recopilar les dades, l’algoritme va percebre que hi havia més homes que dones fent aquella feina i va considerar que eren millors. “Tenim una idea preconcebuda del fet que les dades són objectives i això és el primer error que comentem”, descriu l’expert de la UOC.

Exemples com aquest n’hi ha de tots colors, des d’algoritmes que estan programats per seleccionar quins presos se’ls pot donar la condicional a d’altres que comproven les qualitats de les fotografies de les xarxes. En aquests dos casos també hi ha hagut problemes amb els biaixos socials, per exemple, en el primer cas, l’algoritme prioritzava certes ètnies perquè en casos anteriors s’havien deixat sortir a persones pel simple fet de ser d’una raça concreta. En el segon cas, que li va passar a Twitter, modificava les imatges per fer-les més blanques i més femenines perquè eren les cerques més buscades. “No som éssers coherents, prenem decisions primàries i això és el que aprenen els algoritmes que programem”, descriu Vallverdú.

Precisament aquesta incoherència és la que copien els algoritmes. Vallverdú va més enllà i assegura que les lleis que tenen els països també són un “garbuix sense sentit”. Així doncs, l’expert remarca que és complicat poder crear algoritmes justos des d’una societat que no ho és. “No tenim sistemes ètics coherents, perquè no som éssers coherents”, reconeix. A part, el professor també explica que no hi ha una ètica per sobre de les altres i que cada cultura, depenent de la seva situació geopolítica i social “tria quines prioritats té”, afegeix. I és que, sense anar més lluny, hi ha estudis que demostren que en funció de la societat en la qual ha viscut una persona, o fins i tot el context familiar, poden influir en les decisions que pren.

Per exemplificar aquesta diversitat ètica, el professor fa servir el dilema del tramvia, un estudi que l’Institut Tecnològic de Massachusetts (més conegut com a MIT per les seves sigles en anglès) va utilitzar per analitzar a qui atropellaria un cotxe autònom. El dilema del tramvia consisteix a prendre la decisió de qui salvar de morir atropellat per un tramvia. Als participants de l’estudi se’ls donaven diferents opcions (dones, nens, avis, animals…) i havien d’escollir. “Aquest dilema moral es converteix en una realitat quan hem de programar un cotxe autònom que prendrà la decisió per nosaltres”, descriu el professor de la UAB. La conclusió de l’estudi assegurava que depenia de la persona i del seu context cultural i social, “igual que del cotxe autònom dependria de qui el programi”, diu Vallverdú.

Un problema sense solució

Una de les coses en les quals coincideixen els experts i les empreses és que la solució no és senzilla i el treball s’ha de personalitzar tenint en compte les diferents cultures. És per això que Vallverdú assegura que “un codi deontològic comú no és factible”, el que es contraposa a les demandes dels empresaris com Quintero que reconeixen que “només un tècnic no pot crear-ho”. Al parer seu, sociòlegs, antropòlegs i filòsofs també han de participar en la construcció d’aquests codis. “Hem de donar pas als experts per trobar la solució”, reitera el fundador de Datarmony. Tot i això, ja hi ha alguns intents de crear aquests llibres blancs per fer algoritmes més justos. Casas assegura que des de la Unió Europea s’han creat algunes guies que acaben convertint-se “en indicacions, més que normatives“, diu el professor i expert de la UOC.

Amb tot, els experts coincideixen en assegurar que a la societat no li agrada reconèixer que els algoritmes emmirallen les accions humanes. Casas explica que és una qüestió de mirar més enllà que la programació. El professor assegura que “no és un problema dels algoritmes sinó que ens hauríem de parar a mirar perquè passa això”. Una conclusió a la qual també arriba Vallverdú que reitera que “tenim una construcció idíl·lica del que és l’ésser humà i quan ens diuen que les màquines fan això perquè aprenen de nosaltres no ens agrada”. Conclusions, doncs, que remarquen que el rerefons d’aquesta qüestió no acaba sent tecnològic, sinó que el vertader problema és social.

Comentaris

  1. Icona del comentari de: Observador a novembre 18, 2022 | 08:23
    Observador novembre 18, 2022 | 08:23
    Sort de la intel·ligència artificial, perquè la naturan escasseja moltíssim
  2. Icona del comentari de: Pol a novembre 18, 2022 | 11:56
    Pol novembre 18, 2022 | 11:56
    Articule molt interessant que fa reflexionar de l'importancia de l'ética en la IA per a poder crear una realitat on convisquem els humans i la IA.

Respon a Pol Cancel·la les respostes

Comparteix

Icona de pantalla completa