Más de un centenar de compañías -entre ellas Google, Amazon o Microsoft– se ha comprometido con la Comisión Europea a cumplir la ley europea para regular la inteligencia artificial (IA). Según ha informado este miércoles el ejecutivo a través de un comunicado, varias multinacionales y pymes europeas procedentes de varios sectores han firmado el
En el comunicado publicado este miércoles, la Comisión Europea detalla que el acuerdo se centra en el cumplimiento de acciones en tres campos «fundamentales». En primer lugar, en la estrategia de gobernanza de la IA, con el objetivo que la inteligencia artificial se adopte en los puestos de trabajo en pro del cumplimiento de la ley.
Los sistemas de la IA de alto riesgo
En segundo lugar, Bruselas habla de la identificación de los sistemas de inteligencia artificial que puedan ser clasificados «de alto riesgo» y, finalmente, se busca una promoción de la alfabetización y la sensibilización en materia de IA entre los trabajadores de las empresas, garantizando de este modo un desarrollo «ético y responsable» de la nueva tecnología.

Además de estos compromisos fundamentales, el ejecutivo comunitario informa que más de la mitad de los grupos firmantes han dicho que asumirían compromisos adicionales, como por ejemplo la supervisión humana, la mitigación de riesgos y el etiquetado «adecuado y transparente» de determinados contenidos generales por IA.
Más allá de los mencionados gigantes tecnológicos mencionados, el documento también cuenta con la participación de corporaciones como Booking, Samsung, Mastercard, Orange, Vodafone o Airbus, entre otros.
Una ley pionera
La ley para regular la IA entró en vigor el 1 de agosto de este 2024 y será plenamente aplicable -con algunas excepciones- en los próximos dos años. La nueva norma, pionera en el ámbito global, tiene como objetivo regular la inteligencia artificial según el nivel de peligro que supone. Los sistemas que presenten «riesgos limitados» estarán sujetos a unas obligaciones de transparencia más laxas, mientras que los que supongan «riesgos elevados» solo se podrán utilizar bajo autorización y cumpliendo una serie de requisitos.
Herramientas que pueden influir en la conducta de los individuos o los sistemas de puntuación social quedarán prohibidos porque su riesgo se considera «inaceptable», así como aquellos programas que utilizan datos biométricos para categorizar personas en función de su religión o su orientación sexual.
Solo se aceptarán excepciones en campos la defensa o la investigación, y siempre bajo autorización judicial, como por ejemplo para prevenir amenazas terroristas o combatir el tráfico de personas.
¿Qué pasará con el ChatGPT?
En el caso de los sistemas de inteligencia artificial generativa, como ChatGPT, estos tendrán que especificar si un contenido está generado a través de inteligencia artificial. En la norma también se identifican sistemas de riesgo que solo se podrán comercializar si los desarrolladores garantizan que respetan los derechos fundamentales.
Al mismo tiempo, la norma también busca impulsar la industria europea ante potencias como los Estados Unidos o China.