Pornografía deepfake: lo que hay que saber sobre este tipo de violencia sexual que afectó a Taylor Swift

0
2195

Hace mucho que no basta ver para creer. La generación de imágenes con Inteligencia Artificial (IA) ha avanzado de tal manera que cualquier persona sin conocimientos de programación ni de diseño puede crear imágenes en decenas de herramientas digitales que se encuentran disponibles en la web.

Al comenzar a escribir este artículo ingresé a mi cuenta personal de Canva y le pedí que creara una imagen de un hombre con pelo rizado vistiendo una chaqueta de cuero para ser usada en un reportaje de moda. En cuestión de segundos me ofreció 4 versiones diferentes de la siguiente imagen:

Imagen generada por IA con la herramienta Canva.

Las normas que aplica Canva a todos sus productos generados por IA intentan evitar el uso inapropiado de la herramienta. Te pide que seas un buen humano y no crees contenido dañino. Asegura que no permitirá que violen sus términos y advierte que eliminará la cuenta al que sorprenda haciéndolo.

La lista de restricciones es larga. Comienza por la prohibición de crear contenido que promueva o cree un riesgo de daño físico o mental, angustia emocional, muerte, discapacidad o desfiguración para usted, cualquier persona o animal; y termina con un no rotundo a crear contenido que amenace o socave los procesos o instituciones democráticos.

Y justo en el medio, prohíbe generar cualquier contenido que sea sexualmente explícito, o de naturaleza pornográfica, o que contenga enlaces a dicho material.

La postura de Canva es compartida por otras grandes empresas tecnológicas y por todas las redes sociales, que poseen moderadores de contenido que intentan evitar que imágenes ofensivas lleguen a los ojos del público en general. Aunque se ha señalado que tecnológicas como X ha reducido la supervisión humana de contenidos y cada vez depende más de sistemas automatizados y de informes de usuarios.

El auge del porno falso y gratuito

Pero no todas las herramientas digitales restringen la generación de contenido pornográfico. Hay algunas que viven exclusivamente de eso.

El informe Estado de los Deepfakes 2023, divulgado por Home Securities Heroes, señaló que existen unas 42 herramientas fáciles de usar que permiten generar imágenes con IA, con una demanda de 10 millones de búsquedas mensuales, lo que muestra el interés generalizado y la demanda de contenido deepfake.

Y aunque muchas advierten necesario mitigar el mal uso, la desinformación y las violaciones de la privacidad, el estudio encontró que al menos una de cada tres herramientas deepfake permite a los usuarios generar contenido para adultos, utilizando técnicas de manipulación con IA. Esas plataformas también ofrecen la opción de comprar créditos adicionales para acceder a funciones premium, mejorar la calidad del contenido generado o desbloquear herramientas.

La ausencia de legislaciones que regulen la generación de contenido adulto deepfake y la masificación de la tecnología ha permitido que en tan sólo siete años, la pornografía deepfake se haya expandido por el mundo y ahora pareciera estar fuera de control, como se constató a finales de enero de 2024 con la proliferación en la red social X de imágenes falsas y sexualmente explícitas de Taylor Swift. La empresa dirigida por Elon Musk se vio obligada a bloquear temporalmente las búsquedas de la popular artista estadounidense mientras filtraba el contenido de sus servidores.

Y es que se necesita muy poco para crear este tipo de contenido adulto. El informe también indicó que toma menos de 25 minutos crear un video pornográfico deepfake gratuito de 60 segundos, partiendo de apenas una buena imagen de un rostro. Otro dato preocupante es que la popularidad de los videos deepfake se ha disparado, con un incremento de 464% entre 2022 y 2023.

Swift no fue la primera artista en ser víctima de la pornografía deepfake. Las actrices Scarlett Johansson, Emma Watson y Kristen Bell son algunas de las celebridades que se sorprendieron al ver circular en las redes imágenes sexuales falsas con sus rostros.

El empleo de sus imágenes no fue fortuito sino que forma parte de una tendencia. El informe de Home Securities encontró que el 94% de las personas que aparecen sin su consentimiento en vídeos de pornografía deepfake trabajan en la industria del entretenimiento, específicamente, el 58% son cantantes y el 33% son actrices. Curiosamente, las cantantes y actrices surcoreanas constituyen el 53% de las personas que aparecen en la pornografía deepfake y son el grupo objetivo más común.

Del total de 95.820 videos deepfake estudiados en 2023, los videos pornográficos representan el 98% y el 99% fueron creados con imágenes de mujeres.

Los expertos hablan

Sophie Maddocks, candidata a doctorado de la Escuela de Comunicación Annenberg, explicó a la publicación Penn Today que la pornografía deepfake es generada por una tecnología que utiliza algoritmos de aprendizaje profundo que han sido entrenados para quitar la ropa de imágenes de mujeres y reemplazarlas con imágenes de cuerpos desnudos.

Maddocks considera que “crear imágenes eróticas falsas no es intrínsecamente malo” y que la tecnología puede permitir explorar y disfrutar de tu sexualidad. “Sin embargo, cuando se crean y distribuyen imágenes falsas de personas desnudas sin su consentimiento, se vuelve profundamente dañino”.

Otras investigadores han alertado que la pornografía deepfake es una forma de violencia contra la mujer.

«La inmensa mayoría de los vídeos tienen a las mujeres como víctimas, que ven vulnerado su derecho a la propia imagen, convertida en un objeto de consumo pornográfico. Tiene un efecto psicológico importante porque representa unas prácticas sexuales que, aunque nunca hayan ocurrido en realidad, son muy realistas», dijo Cristina Pujol, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC e investigadora del grupo GAME en una publicación de la Universidad Abierta de Cataluña.

La experta considera que las víctimas de la pornografía deepfake viven una sensación de desprotección, violencia y pérdida de control real aunque las imágenes sean falsas y sus consecuencias son las mismas que podrían padecer quien sufre de cualquier otro tipo de ciberdelincuencia sexual.