La tecnología ha conseguido hacer más del que nos podía imaginar hace una década. Desde imágenes generadas con ordenadores a videos de lugares completamente imaginarios tanto reales como las calles de Barcelona. La inteligencia artificial -esa herramienta que se temía en las películas de ciencia ficción por su proximidad a la inteligencia humana- ha probado ser una fuente de conocimiento, entretenimiento e innovación insaciable, lo que ha puesto los gobiernos contra las cuerdas para buscar la manera de controlar la aceleración; y lo han conseguido. El Parlamento Europeo ha dado luz verde a la nueva ley de la inteligencia artificial. Después de meses de borradores y negociaciones, el veredicto no ha sido nada ajustado y más de cinco centenares de eurodiputados han votado a favor de esta nueva norma, que será la primera de este tipo en todo el mundo. Desde que la tecnología empezó a avanzar rápidamente, desde la UE ya se reclamaba una manera de poder controlar toda la actividad, pero sin pararle el crecimiento.
Equilibrio ha sido la palabra con la cual se ha definido la norma, puesto que gira entre dos esos muy importantes: la necesidad de continuar innovando y la seguridad de los ciudadanos. De hecho, tal como lo explica la misma nueva ley, la innovación es una parte clave a conservar y, por lo tanto, hay que tener muy en cuenta no cortar las alas de las empresas: «La IA Act dirige aspectos relacionados con la innovación, para hacerla compatible con los derechos digitales en este nuevo marco regulador», explica la secretaria de Políticas Digitales del Govern, Gina Tost, que asegura que «contempla un tipo de sello de calidad para fomentar la confianza de los usuarios, y de la ciudadanía en general y, por lo tanto, fortalecer su competitividad a escala global». Así pues, el Parlamento Europeo ve el texto bastante maduro para ponerlo en práctica y solo falta la ratificación del Consejo de la UE para hacerlo posible. Aun así, la aplicación definitiva todavía tendrá que esperar porque no será aplicable hasta dos años de su entrada en vigor que se producirá pasados 20 días de su publicación. «De entrada es una norma buena y necesaria, pero habrá que ver como se desarrolla», explica Xavier Urios, jefe de asesoría jurídica de la Autoridad Catalana de Protección de Datos (APDCAT), quienes remarca, pero que «ha llegado tarde» y, en consecuencia, «se ha querido concretar demasiado deprisa».
El punto de inflexión de esta norma fue el 20 de diciembre, cuando el Consejo de la UE salió a anunciar que había un acuerdo para empezar la implementación de la nueva ley. Después de unas 40 horas de negociaciones, los países se acabaron comprometiendo con el texto que ponía como prioridad la seguridad de la sociedad, pero sin poner en riesgo la innovación empresarial en este campo. Es por eso, que la norma constituye en una escala de los grados de riesgo de las acciones. Cuanto más arriesgada sea la innovación, más vigilada estará y, si procede, más deprisa será eliminada o sancionada. Tal como anuncia la Comisión Europea, hay cuatro grados de riesgo, que van desde el más ligero, que podría ser la IA que se utiliza en los anuncios personalizados hasta la más complicada de controlar, como es aquella que implica alguna clase de manipulación de la conducta humana.
La nueva normativa pivota sobre los principios éticos que se han ido modelando a medida que la tecnología ha ido avanzando. De este modo, la ley engloba todos y cada uno de los riesgos para la seguridad moral de la ciudadanía, así como perpetúa la protección de las personas ante decisiones que pueden tomar las máquinas entrenadas con algoritmos poco precisos. Por ejemplo, esta ley regulará los sesgos de las herramientas de reclutamiento de personal o las respuestas de chatbots que no se asimilen a la realidad. Tal como lo describe Tost: «La legislación dice que habrá que hacer públicas los datos que se utilizan para entrenar los sistemas, y esto es relevante, entre otras cosas, porque se podrán identificar aquellos datos que no tienen el consentimiento o que tienen derechos de autor». Además, también controlará la intervención de esta clase de tecnología en diferentes ámbitos legales, como por ejemplo en procesos judiciales o controles fronterizos. «A pesar de que la normativa tenga en cuenta el bienestar social y la innovación también hará falta que otorgue suficiente control a las instituciones adecuadas para que puedan hacerla cumplir», explica Urios.

ChatGPT y reconocimiento facial son las estrellas de la norma
La norma llega en un momento en que hay dos grandes cuestiones éticas relacionadas con el uso de la inteligencia artificial sobre la mesa. La primera es la regulación del ChatGPT, la herramienta que ha cambiado por siempre jamás la manera de conversar que tenemos con los chatbots y, sobre todo, la investigación de información. El producto creado por la empresa americana OpenIA, tendrá que pasar algunos controles de calidad y hará falta que quede muy claro que no utiliza ni sesga la información de acuerdo con los algoritmos y estímulos que recibe. En otras palabras, la ley obliga a regular que las respuestas del chat sean fidedignos y contrastadas. «Ante una realidad tan cambiante y modernizada hace falta que nos protegemos de los posibles riesgos que hay», alerta el jefe de asesoría jurídica de la APDCAT.
La protección de los datos biométricos también es otra cuestión que preocupa cada vez más a medida que se acelera la innovación en tecnología. De este modo, uno de los puntos que más controversia llevó de la ley fue el uso del reconocimiento facial -sin permiso de los ciudadanos- por algunas gestiones gubernamentales. En este caso, la ley ha acabado prohibiendo la vigilancia masiva en espacios públicos, pero permite que se puedan usar cámaras de identificación biométrica, con autorización judicial, por cuestiones como prevenir una amenaza terrorista o para localizar e identificar una persona que haya hecho tráfico de personas o explotación sexual. Por lo tanto, el uso de los datos biométricos no se podrá usar sin el consentimiento previo de las personas, a no sé qué sirva a un mal mayor. Ahora bien, Urios también recuerda que a pesar de tener el consentimiento se tiene que explicar de manera muy clara que se hará con estos datos y dónde acabarán.
Francia, la piedra en el zapato de la UE
Los países de la Unión Europea no han estado de acuerdo en todos los pasos de las negociaciones, puesto que la importancia de la libertad de las empresas más innovadoras ha carcomido algunas confianzas con la nueva ley. El caso que más lejos ha llegado es el de Francia, que hasta el último momento no ha aflojado la cuerda. El primer momento que se habló de esta nueva norma, Francia, Alemania e Italia pidieron que se aligeraran algunos de los parámetros, puesto que temían que pudieran repercutir de manera negativa en sus start-ups de IA nacidas en suelo europeo, como Mistral AI (francesa) o Aleph Alpha (alemana). También Eslovaquia y Austria tuvieron algunas reticencias al principio y pidieron más aclaraciones. Durante los años se han ido haciendo diferentes borradores de la normativa, pero la última fase se confeccionó durante la presidencia española del Parlamento Europeo, donde las tensiones crecieron hasta el punto que Alemania, Italia y Francia ajustaron mucho los plazos, pero finalmente los dos primeros cedieron.
Con todo, la nueva ley ha pasado por diferentes tramos complicados y ha puesto contra las cuerdas en muchos países, pero el Parlamento Europeo se ha acabado mostrando unido ante la clara necesidad de tener una norma que regule el crecimiento actual de la inteligencia artificial. Si bien es cierto que la IA ya se ha implementado dentro de algunas prácticas cotidianas, todavía hay margen para regularla, porque tal como confirma la secretaria de Políticas Digitales de la Generalitat: «Es evidente que la nueva ley no es una regulación maximalista y no garantiza todos los derechos, pero es un paso muy importante, sobre todo en cuanto a la evaluación de los riesgos».