Imágenes manipuladas con herramientas de inteligencia artificial (IA) de la cantante Taylor Switf se difundieron de forma masiva en X la semana pasada, lo que ha llevado a la red social y a otras similares a bloquear las búsquedas relacionadas.
El viernes la red social X se llenó de imágenes manipuladas de la cantante en las que se habían utilizado herramientas de IA para apareciera en ellas desnuda. Es una práctica que se conoce como 'deepfake', que tiene la capacidad para hacer dudar de la autenticidad de las imágenes o vídeos en los que se aplica, dado su realismo.
Esta difusión masiva se hizo sin el conocimiento ni el consentimiento de Taylor Switf, y puede rastrearse hasta un foro en la plataforma de mensajería Telegram, donde usuarios de una comunidad comparten imágenes manipuladas con herramientas como Microsoft Designer para desnudar a las mujeres, como informó 404 Media.
Las búsquedas relacionadas con los 'deepfake' de la cantante estadounidense se convirtieron en tendencia en X, donde la plataforma confirmó el viernes que sus equipos estaban «eliminando activamente» todas las imágenes que identificaban y tomando acciones contras las cuentas que las habían publicado.
Antes de empezar a retirarlas, una de las publicaciones alcanzó los 45 millones de visualizaciones, y las 24.000 republicaciones, e incluso registró cientos de miles de Me Gusta y marcadores, según apuntan en The Verge.
De forma adicional, X ha empezado a bloquear las búsquedas que utilizan palabras clave relacionadas con las imágenes manipuladas, como el propio nombre de la artista o 'Taylor Swift AI', que dan como resultado una notificación de error. Sin embargo, como señalan en The Verge, este bloqueo no es del todo efectivo, ya que puede sortearse al cambiar el orden de algunas palabras, por ejemplo, 'Taylor IA Swift'.
Según el analista de redes sociales Matt Navarra, esta medida también la ha adoptado Meta para sus redes sociales Threads e Instagram.
'DEEPFAKE' PORNOGRÁFICOS
El 'deepfake' afecta principalmente a las mujeres. Según el estudio de la firma de soluciones de seguridad Home Security Heroes de 2023, la manipulación de contenidos audiovisuales protagonizado por mujeres supone el 77 por ciento del contenido presente en webs y canales de YouTube, Vimeo y Dailymotion especializados, cifra que asciende al 99 por ciento de los casos en el 'deepfake' pornográfico.
Las figuras públicas, además, tienen mayor probabilidad de ser víctimas de este tipo de manipulaciones, dada la visibilidad que tienen ante el público y la cantidad de imágenes disponibles de ellas. Por profesiones, son las cantantes (58%) y las actrices (33%) las que más 'deepfakes' protagonizan.
La manipulación de imágenes con herramientas de inteligencia artificial no es nueva, y de hecho el informe sitúa la evolución en 2014, con la aparición de las redes generativas antagónicas o adversiales (GAN), que se se pueden usar para generar imágenes sintéticas con gran realismo.
Los avances en esta tecnología en los últimos años han permitido ampliar sus capacidades, e incluso introducirla en servicios más asequibles y fáciles de usar, lo que ha extendido el uso entre usuarios que no necesitan tener un conocimiento especializado para usarlas.
En 2017, por ejemplo, se conoció la existencia de una campaña que difundía vídeos pornográficos supuestamente protagonizados por personajes públicos, generalmente de mujeres, que resultaron ser falsos: los rostros habían sido manipulados para que mostraran el de actrices y cantantes como Gal Gadot, Taylor Swift o Scarlett Johansson, sin su consentimiento.
Más recientemente, y en relación al fácil acceso a esta tecnología, se puede mencionar el caso de los falsos desnudos de niñas y adolescentes menores de edad que se conocieron en septiembre del año pasado en Almendralejo (Extremadura), que habían sido realizados y compartidos por varios chicos menores de la localidad.
El 'deepfake' difumina los límites entre la realidad y la ficción al transformar con gran realismo la apariencia y la voz de las personas, lo que plantea cuestiones sobre la veracidad de lo que se está viendo, con la capacidad para dañar la imagen de aquellos a los que ha suplantado.