La plataforma de redes sociales X de Elon Musk ha bloqueado las búsquedas de Taylor Swift a medida que circulan en línea imágenes pornográficas falsas de la cantante.
Los intentos de buscar su nombre en el sitio el lunes dieron como resultado un mensaje de error y un mensaje para que los usuarios volvieran a intentar su búsqueda, que agregaba: "No te preocupes, no es tu culpa".
Las búsquedas de variaciones de su nombre, como “taylorswift” y “Taylor Swift AI”, arrojaron los mismos mensajes de error.
Imágenes falsas sexualmente explícitas y abusivas de Swift comenzaron a circular ampliamente la semana pasada en X, convirtiéndola en la víctima más famosa de un flagelo que las plataformas tecnológicas y los grupos anti-abuso han luchado por solucionar.
"Esta es una acción temporal y se hace con mucha precaución, ya que priorizamos la seguridad en este tema", dijo Joe Benarroch, jefe de operaciones comerciales de X, en un comunicado.
Después de que las imágenes comenzaron a difundirse en línea, la devota base de fans de “Swifties” de la cantante se movilizó rápidamente, lanzando una contraofensiva contra X y un hashtag #ProtectTaylorSwift para inundarlo con imágenes más positivas de la estrella del pop. Algunos dijeron que estaban denunciando cuentas que compartían los deepfakes.
El grupo de detección de deepfake Reality Defender dijo que rastreó una avalancha de material pornográfico no consensuado que representa a Swift, particularmente en X. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y otras plataformas de redes sociales.
Los investigadores encontraron al menos un par de docenas de imágenes únicas generadas por IA. Los más compartidos estaban relacionados con el fútbol y mostraban a Swift pintada o ensangrentada que la objetivaba y, en algunos casos, infligía un daño violento a su personalidad deepfake.
Los investigadores han dicho que la cantidad de deepfakes explícitos ha aumentado en los últimos años, a medida que la tecnología utilizada para producir tales imágenes se ha vuelto más accesible y fácil de usar.
En 2019, un informe publicado por la firma de inteligencia artificial DeepTrace Labs mostró que estas imágenes estaban abrumadoramente utilizadas como arma contra las mujeres. La mayoría de las víctimas, dijo, eran actores de Hollywood y cantantes de K-pop surcoreanos.
(Foto AP/Nick Wass)
POR LA PRENSA ASOCIADA