Las instituciones de la Unión Europea llegaron este jueves a un acuerdo para prohibir la creación de imágenes sexualizadas generadas con inteligencia artificial, sin el consentimiento de las personas afectadas. El pacto, cerrado de madrugada, prohíbe los sistemas de inteligencia artificial cuyo único propósito es el de generar este tipo de imágenes o de abuso sexual infantil, además de los que se pueden emplear para múltiples propósitos, si no tienen «medidas de seguridad razonables» para evitar la propagación de este contenido.
El veto, que entrará en vigor el 2 de diciembre de 2026, se ha pactado tras el escándalo que ha causado la generación de fotografías con Grok, la herramienta de inteligencia artificial de la red social X, que ahora tendrá hasta finales de año para diseñar medidas de protección adecuadas. «Nuestras empresas y ciudadanos quieren dos cosas de las reglas de inteligencia artificial. Quieren poder innovar y sentirse seguros. El acuerdo de hoy hace ambas cosas», dijo en redes sociales la vicepresidenta de la Comisión Europea encargada de la política digital, Henna Virkkunen.
La UE añade así una limitación adicional a la generación de este tipo de contenido, perseguido ya por el derecho penal en los Estados miembros. Además, las instituciones comunitarias retrasaron hasta diciembre de 2026 la obligación de incorporar marcas de agua a todo tipo de contenido generados con inteligencia artificial, ya sean fotos, videos o audio, para que los usuarios puedan detectar con facilidad que se han generado con una máquina.
Sistemas de alto riesgo
El acuerdo pospone también hasta el 2 de diciembre de 2027 las obligaciones que la ley de inteligencia artificial de la UE impone a los sistemas de alto riesgo, como los que se usan para proteger a infraestructuras críticas, los que emplean los bancos para calcular la probabilidad de devolución de un préstamo, para contratar a personal o, por ejemplo, gestionar el control de las fronteras.
Inicialmente, la ley estableció este año para la entrada en vigor de estas obligaciones, pero las instituciones comunitarias han pactado un retraso de dieciséis meses porque Bruselas aún no ha diseñado los requisitos técnicos que deberán cumplir los sistemas de IA para ser seguros, sin poner en riesgo a las personas o vulnerar derechos fundamentales.
La reforma de la ley de inteligencia artificial se ha pactado, principalmente, con el pretexto de reducir la carga burocrática a las empresas y con este objetivo, se ha eximido a varios sectores industriales de tener que cumplir los requisitos de transparencia o de notificación de incidentes que la norma prevé para los sistemas de alto riesgo. Productos como dispositivos médicos, juguetes o ascensores estarán exentos de tener que demostrar que sus sistemas de IA son seguros si otras normas sectoriales ya les imponen requisitos similares.
«Para que Europa se convierta en un continente de IA, necesitamos promover la innovación, apoyar a las empresas emergentes y a las empresas en expansión», dijo la eurodiputada Arba Kokalari, ponente en la Eurocámara de la reforma de la normativa. La organización CCIA Europe, que representa los intereses de las grandes tecnológicas, mostró su rechazo a la reforma. «Dadas las mínimas mejoras introducidas en la Ley de IA, resulta difícil ignorar la enorme brecha que existe entre la retórica política sobre la simplificación regulatoria y los resultados concretos», dijo esa plataforma en un comunicado.
Era un melón que había que abrir. Pero el titular es un poco amplio respecto al contenido de la noticia. El titular dice "imágenes", pero la noticia añade "sin el consentimiento de la persona afectada". Entiendo que estamos hablando de una imagen de una persona real, que es modificada mediante IA para sexualizarla. Pero, ¿y si la imagen no es de una persona real sino que está generada aleatoriamente? Entiendo que en ese caso se permitiría, a menos que la imagen sea de un menor, en cuyo caso se prohibiría en todas las circunstancias. Ahora bien... ¿dónde está el límite de lo que es "un menor" cuando hablamos de inteligencia artificial? Técnicamente una imagen no tiene edad, aunque hay imágenes donde es obvio que se trata de menores. Sin embargo, un joven de 17 años es un menor. ¿Lo podrían diferenciar de uno de 18? ¿Cómo? Supongo que poniendo barreras en el algoritmo. Luego está el tema de la definición de "sexualización". No solo consiste en la desnudez. También está el tema de la postura, de los gestos, de la expresión... ¿Se acuerdan de la primera publicidad de wonderbra? La modelo no mostraba nada, solo sus palmas orientadas al espectador y la boca con la lengua fuera. Todo un ejemplo de lo que es una imagen sexualizada que no muestra nada. Es un tema para un debate profundo.