La intel·ligència artificial pot aconseguir el que no han pogut fer els grans dictadors totalitaris de la història. Tot depèn de les decisions que es prenguin a partir d’ara sobre aquesta nova tecnologia que es desenvolupa amb una velocitat exponencial. Ho adverteix Yuval Noah Harari a Nexus, la nova obra de l’autor del cèlebre Sapiens, en què aborda “el cantó fosc” de la IA. Ell mateix ha explicat els eixos del llibre, publicat en català per Edicions 62, en una roda de premsa internacional celebrada aquest dilluns a la tarda per a mitjans de l’estat espanyol i Llatinoamèrica a la qual ha estat convidat El Món per l’editorial catalana. Durant una hora, Harari ha desgranat a grans trets les principals idees de Nexus, entre les quals hi ha reflexions sobre la capacitat ingent, i fins i tot difícil d’imaginar, de la IA. Tot i que ha subratllat que no és partidari del determinisme i que el futur dels humans respecte d’aquesta tecnologia dependrà de com la gestionin, ha admès que la IA té “potencial totalitari”.
“La diferència entre els règims autoritaris i els totalitaris és que els totalitaris, com el de Stalin i el de Hitler, no volen controlar només les polítiques públiques, sinó tots els aspectes de la vida, la totalitat de la vida dels ciutadans. Però per a Stalin controlar els ciutadans era difícil. No tenia 400 milions d’agents del KGB. I encara que hagués tingut 200 milions d’informes, algú els havia de llegir i analitzar. I els informes podien quedar en un calaix, plens de pols. O sigui que fins i tot a l’URSS hi havia cert grau de llibertat. Però IA acaba amb això, perquè ara hi ha la tecnologia per a aquest control total. Stalin no va poder aniquilar la privacitat i la IA sí que ho pot fer”, ha resumit.
Per començar per casa seva, Harari ha posat com a exemple el que ja està passant a Israel. “El meu propi país ja ho està fent, als territoris ocupats, amb drons i softwares”, ha reconegut. També ha recordat que a l’Iran s’estan fent servir sistemes de control tecnològic, especialment contra les dones. “Els carrers estan plens de càmeres de vigilància amb softwares de reconeixement facial que detecten les dones que no van cobertes i les castiguen. Si condueixen el seu cotxe privat sense vel, les identifiquen, saben qui són i els envien immediatament un missatge avisant-les de la infracció i comunicant-los que els confisquen el vehicle”, ha relatat. “Això no és ciència-ficció, ja està passant”, ha alertat.

Els algoritmes de les xarxes socials, el gran problema
Harari té un argument clau per defensar la seva idea que la crisi que pot comportar la IA pot ser pitjor que qualsevol repte anterior en la història. “La IA és diferent de qualsevol altra tecnologia anterior, perquè no és una eina, és un agent lliure. Fins ara, fins i tot amb la bomba atòmica, els humans decidien com la feien servir. La IA és diferent, pot prendre decisions per ella mateixa. Pot produir imatges, pot produir codi, i en última instància, pot crear una altra IA, més potent. Això la fa diferent de qualsevol altra crisi prèvia”, ha recalcat.
De fet, com que s’adreçava a un centenar de periodistes connectats a aquesta roda de premsa, que es feia per videoconferència, moltes de les preguntes que se li han fet arribar eren sobre el paper dels mitjans de comunicació. Per fer-se entendre ha posat un exemple que els toca de molt a prop: “En un diari, l’editor [el director] decideix què és el més important i ho posa a la portada. Però ara, amb Twitter, Facebook i les altres xarxes socials, l’algoritme decideix què és el més important, què és el més destacat del feed“. Són els algoritmes de les grans corporacions els que decideixen la distribució dels continguts, què és el que arriba a més gent.

Per a Harari, és en aquest punt on s’ha d’incidir: obligar les corporacions que controlen les xarxes socials i els seus algoritmes a modificar-los. Segons el seu punt de vista, les fake news no són una qüestió de llibertat d’expressió perquè el problema no és que un humà les produeixi, sinó que un algoritme les “dissemini”. “Cal anar molt amb compte abans de censurar els humans. La gent, per dir-ho d’alguna manera, té dret a l’estupidesa. Per tant, si la mentida no és un delicte, forma part de la llibertat d’expressió. Però el problema de les teories de la conspiració són els algoritmes de les corporacions. Les xarxes treballen amb el concepte de la ‘implicació’ de l’usuari. Això pot sonar molt bé, però en realitat el que es busca és només que la gent passi més temps a la plataforma, per vendre més anuncis. I perseguint aquest objectiu han descobert que la manera d’aconseguir-ho és prémer el botó de l’odi. Les empreses són responsables d’això. Això no és llibertat d’informació. I aquestes empreses tenen la responsabilitat de disseminar aquestes mentides, com l’editor del New York Times és responsable del que posa a la portada”, ha argumentat.
La “visió ingènua” de la informació
Totes aquestes observacions estan relacionades amb una idea força sobre la qual es construeix Nexus: acabar amb la “visió ingènua” de la informació, segons la qual com més quantitat d’informació tinguem més ens acostarem a la veritat: “La informació no és la veritat, no és el coneixement, perquè la major part de la informació disponible és porqueria. La informació real és escassa, escriure-la és car. Tenim molta informació, però, si inundem el món amb aquesta informació, la veritat cau al fons i hi queda enterrada”. Per això, defensa que cal invertir en mitjans de comunicació independents, que són la garantia d’una “conversa pública” que pugui assenyalar els errors i les mentides dels governs per obligar-los a corregir-les o canviar aquests governs. Aquesta és l’essència de la democràcia i aquest objectiu s’allunya del reialme de l’algoritme.
Les oportunitats de la IA versus el seu cantó fosc
Malgrat tots aquests advertiments, Harari vol que quedi clar que la IA també comporta oportunitats positives. Veu un “potencial enorme” de la intel·ligència artificial en el camp de la salut. “No crec que tothom a Silicon Valley sigui malvat. Per exemple en la salut, el metge IA pot actualitzar cada dia els seus coneixements, controlar les nostres constants vitals, es pot crear la millor atenció sanitària de la història per a tots els racons del món. I els vehicles autònoms poden salvar milions de vides evitant accidents de trànsit”, exemplifica.
Tanmateix, ell ha triat parlar del “cantó fosc” de la IA per contrarestar la propaganda del sector: “Jo parlo més dels perills perquè hi ha empreses molt riques que inunden la població amb històries positives sobre la IA i n’ignoren els perills. La funció dels pensadors és treure a la llum el cantó fosc i reclamar inversions en la seguretat de la IA, com es fa amb els cotxes. Si les empreses d’IA invertissin el 20% del seu pressupost en seguretat, seria un pas que ens podria protegir del cantó més perniciós”. El problema, alerta, és que el sector està “en una mena de cursa armamentística” i deixa per a més endavant la solució d’aquests problemes. “És un gran perill, és com si els fabricants de cotxes deixessin per a un altre moment la fabricació dels frens”, ha sentenciat.