La Unión Europea (UE) ha implementado nuevas y ambiciosas normas de transparencia para la inteligencia artificial (IA) generativa a partir de este sábado, 2 de agosto de 2025. Estas reglas, que forman parte integral de la innovadora Ley de Inteligencia Artificial de la UE, buscan regular el uso de sistemas de IA de alto nivel, como ChatGPT de OpenAI y Gemini de Google, garantizando el respeto por los derechos de autor y la prohibición de la difusión de información discriminatoria o que atente contra los derechos fundamentales.
La Ley de Inteligencia Artificial de la UE, que entró en vigor el año pasado y se desplegará progresivamente hasta 2027, es pionera a nivel mundial al establecer un marco regulatorio que clasifica y controla el uso de la IA en función del riesgo que representa para las personas. Hace apenas dos semanas, la Comisión Europea publicó directrices detalladas que los sistemas de IA generativa deben seguir para cumplir con este marco legal.
En esencia, la nueva legislación exige que los modelos de IA generativa, especialmente aquellos considerados de alto riesgo debido a su capacidad computacional avanzada, se abstengan de entrenarse con datos protegidos por derechos de autor. Además, estos sistemas deben someterse a rigurosas evaluaciones de riesgo para identificar y mitigar cualquier peligro potencial que puedan representar para los usuarios.
La implementación de estas normas no ha estado exenta de controversia. Estados Unidos ha expresado su preocupación por las recientes leyes de la UE que buscan controlar el poder de las grandes empresas tecnológicas, muchas de las cuales son estadounidenses. Además de la Ley de Inteligencia Artificial, la UE también ha promulgado la Ley de Mercados Digitales, que establece normas para la libre competencia entre las tecnológicas, y la Ley de Servicios Digitales, que las obliga a combatir el contenido ilegal.
A pesar de las tensiones geopolíticas, la Comisión Europea ha logrado obtener compromisos voluntarios de importantes actores de la industria. Un total de 25 empresas, incluyendo gigantes como Google, Amazon, IBM, Microsoft y OpenAI, se han adherido al código de buenas prácticas en la utilización de la IA, impulsado por la Comisión Europea. Sin embargo, algunas ausencias notables, como Meta y las empresas chinas Alibaba, Baidu y Deepseek, resaltan los desafíos para lograr una adopción universal de las normas.
Curiosamente, Elon Musk, propietario de xAI, optó por suscribirse únicamente al capítulo de seguridad del código de buenas prácticas, evitando comprometerse con los aspectos relacionados con los derechos de autor y la transparencia. Esta decisión subraya la complejidad y las diversas perspectivas sobre la regulación de la IA en el panorama tecnológico actual.
Las nuevas normas de transparencia de la UE representan un paso significativo hacia la creación de un entorno de IA más responsable y ético. Al abordar cuestiones clave como los derechos de autor, la no discriminación y la seguridad del usuario, la UE busca liderar el camino en la regulación de la IA a nivel global, sentando un precedente para otros países y regiones.