La regulació europea de la intel·ligència artificial no ha suposat un problema per a les empreses. Aquesta norma pionera al món busca intentar pal·liar els efectes negatius que aquesta tecnologia pot tenir en la societat si se’n fa un mal ús. És per això que han posat a l’abast de les companyies que en fan ús, una normativa completa sobre com fer-la funcionar i totes aquelles pràctiques que serien il·legals, com per exemple, la vigilància dels clients. Sorprenentment, no hi ha hagut queixes públiques sobre la regulació i els grans gegants tecnològics s’han sumat a la iniciativa de manera immediata. De fet, més d’un centenar de grans companyies d’arreu han signat el Pacte sobre la Intel·ligència Artificial, entre elles Telefónica i Iberdrola. Ara bé, la legislació és complexa i en molts casos des d’un punt de vista inexpert és complicat detectar qui està fent alguna pràctica il·legal. En aquesta línia, la Comissió Europea ha creat un document explicatiu per a poder entendre com funcionarà la llei.
El primer que s’ha de tenir en compte, segons ha explicat l’organisme europeu, és que hi ha diferents classes de risc en l’ús de la intel·ligència artificial. En aquest sentit, existeix el risc inacceptable i l’alt risc. En el primer cas, les empreses estan obligades a cessar les seves operacions immediatament, en canvi, en el segon cas, cal que tinguin en compte diferents factors que podrien determinar si són aptes o no per donar serveis d’intel·ligència artificial. Tal com s’explica en el document de la Comissió Europea, els sistemes de IA de risc inacceptable inclouen la manipulació cognitiva del comportament de persones o grups vulnerables específics, per exemple, joguines activades per veu que fomenten comportaments perillosos en els nens. També entraria en aquesta categoria, aquelles IA que s’utilitzen en processos de selecció que creen classificacions basades en comportament, estatus socioeconòmic, raça, gènere, orientació sexual… Per últim, també es veta l’ús de les dades biomètriques per la vigilància. Aquest punt va ser un dels més polèmics durant la negociació de la llei, ja que no tothom estava d’acord amb la prohibició de la vigilància social, sobretot en casos de delinqüència. Per això, es va crear una excepció on els sistemes d’identificació biomètrica a distància “a posteriori”, en els quals la identificació es produeix després d’un retard significatiu, es permetran per a perseguir delictes greus i només quan hi hagi prèvia aprovació judicial.

Les companyies que han signat el pacte entren, pràcticament en la majoria dels casos, dins la categoria d’alt risc. D’aquesta manera, les tecnologies que suposen un risc elevat per a la ciutadania són els sistemes d’IA utilitzats com a components de seguretat en determinades infraestructures crítiques, com ara en els camps del trànsit rodat i el subministrament d’aigua, gas, calefacció i electricitat; els sistemes utilitzats en l’educació i la formació professional, per exemple, per avaluar els resultats de l’aprenentatge, orientar el procés educatiu i monitorar el frau; la gestió tecnològica d’ocupació i de treballadors, així com en l’accés a l’autoocupació, per exemple, per publicar ofertes de feina dirigides, analitzar i filtrar sol·licituds d’ocupació i avaluar candidats; els sistemes utilitzats en l’accés a serveis essencials, tant privats com públics, i beneficis (com ara l’atenció sanitària), avaluació de la solvència de persones físiques, així com en l’avaluació de riscos i la fixació de preus en relació amb les assegurances de vida i salut; els sistemes que s’usen en l’aplicació de la llei, la migració i el control fronterer, en la mesura que no estiguin ja prohibits, així com en l’administració de justícia i processos democràtics; i finalment, els sistemes d’IA utilitzats per a la identificació biomètrica, la categorització biomètrica i el reconeixement d’emocions, en la mesura que no estiguin prohibits.
Els requisits de transparència del ChatGPT
Brussel·les parla en el seu document del compromís que tenen aquestes companyies internacionals d’identificar els sistemes d’intel·ligència artificial que puguin ser classificats “d’alt risc” -com els exemples de dalt- per reparar-los. A més, l’organisme també busca promocionar l’alfabetització i la sensibilització en matèria d’IA entre els treballadors de les empreses, garantint d’aquesta manera un desenvolupament “ètic i responsable” de la nova tecnologia. Entrar en la categoria d’activitats d’alt risc o no depèn de les diferents àrees que la mateixa comissió entén per “perilloses”, per exemple, ChatGPT no entra en aquesta categoria, però sí que es reclama un seguiment de ben a prop d’aquesta tecnologia. En aquest sentit, les companyies que utilitzen tecnologia com la del ChatGPT hauran de deixar molt clar quina informació ha estat generada amb IA i dissenyar un model que no deixi a la màquina crear i construir contingut il·legal. A més, per tal d’intentar que la IA no utilitzi contingut amb autoria, les companyies estaran obligades a protegir els drets d’autor en qualsevol dels textos que generi la nova eina tecnològica. En cas que s’utilitzin com a font d’informació externa, la IA també haurà de citar-ne l’autor.