La prestigiosa publicació sobre tecnologia MIT Technology Review ha fet aflorar recentment una anècdota reveladora sobre el desenvolupament de ChatGPT per part de l’empresa californiana OpenAI. Segons explica, els investigadors Yuri Burda i Harri Edwards estaven estudiant la capacitat d’aprenentatge del qual s’anomena models de llenguatge, una tipologia d’algorismes que està darrere la disrupció de GPT.

L’experiment concret consistia a ensenyar-li exemples de sumes i restes, i veure si el model seria capaç d’entendre d’alguna manera la mecànica genèrica d’aquestes operacions, i replicar-la per una suma o resta que mai abans havia vist. Fins aquell moment, aquesta mena d’experiments havien tingut un èxit escàs: el software era bo replicant instruccions, però molt dolent en abstreure els conceptes i idees genèrics que s’amaguen darrere un conjunt d’exemples concrets. Burda i Edwards es van oblidar d’aturar el programa d’entrenament i van marxar uns dies de vacances, i en tornar van descobrir que el sistema encara seguia ensenyant sumes i restes a GPT, i per gran sorpresa d’ells, aquest les podia resoldre amb gairebé un 100% de correcció. Els investigadors van intentar modelitzar quin era el moment temporal, el nombre d’exemples a partir del qual l’algorisme s’havia tornat tan bo fent aquestes operacions per si mateix, una mena de “clic” similar al que els humans fem quan entenem un concepte i de sobre ens sembla trivial i el podem extrapolar amb una gran habilitat. No van poder modelitzar-ne ni explicar el perquè d’aquest comportament de l’algorisme, que s’assembla molt a l’aprenentatge de les persones, no pas lineal sinó amb una fita, un esglaó a partir del qual s’entén el concepte.

Aquesta podria ser una més de les moltes anècdotes que podríem recopilar a tota mena de laboratoris tecnològics, químics i farmacològics on s’observa un determinat comportament i no sabem ben bé per què. A diferència d’altres episodis similars, però, aquest cop hi ha un element addicional de preocupació: la capacitat de la intel·ligència artificial creix a un ritme astronòmicament ràpid, totalment exponencial. La setmana passada, el líder en fabricació de microxips per a intel·ligència artificial, Nvidia, va presentar la seva nova plataforma “Blackwell” de microxips per a IA. Aquesta plataforma permet entrenar els algorismes amb fins a tres bilions de paràmetres –bilions europeus, és a dir, tres milions de milions-. Tornant a l’exemple interior, seria com si pogués “estudiar” tres milions de milions de sumes i restes, per poder acabar entenent el concepte abstracte de sumar i restar. La particularitat és que els paràmetres poden barrejar tota mena de disciplines, creant models específics altament precisos (per exemple, per a aplicacions de diagnosi mèdica) però també creant models generals, el que s’ha anomenat “General Purpose IA” o intel·ligència artificial de propòsit general.

L’horitzó és evident: hi ha un alt potencial, i alhora també un alt risc, vinculat al moment molt pròxim en el qual el nombre de paràmetres dels algorismes d’intel·ligència artificial permeti fer aquest “clic” de l’aprenentatge no lineal que els dos investigadors californians van observar, però aquesta vegada sobre un sistema de propòsit general. Perquè tots ho puguem entendre, això equivaldria a la maduresa intel·lectual d’aquests sistemes en totes les disciplines, la qual cosa els podria fer indistingibles dels humans en un gran nombre de tasques.

El passat any 2023 i sobretot enguany estem avançant a tota velocitat cap a aquesta maduresa intel·lectual de la IA, amb una certa inèrcia: cada vegada els microxips permeten un entrenament amb major nombre de paràmetres per la mateixa roda de la Llei de Moore. Però darrere d’aquesta inèrcia hi ha unes implicacions de gran transcendència: no sabem encara en quin grau positives (com augment significatiu de la productivitat del treball, un fenomen similar a la revolució industrial) o negatives (com la necessitat abrupta de reciclar alguns perfils professionals que poden veure com les seves feines queden cada dia més encavalcades per una IA de propòsit general, o l’ús d’aquestes capacitats per a qüestions obscures, com la preparació i execució d’estafes).

Nou comentari

Comparteix

Icona de pantalla completa