La simulación de vídeos o imágenes sexuales en las que se falsea la identidad de algún participante por motivos varios (como hundir su reputación) no es algo nuevo, y así lo prueba el vídeo explícito ‘fake’ que la CIA hizo del presidente indonesio Sukarno, realmente con un doble que lucía una máscara facial, y en el que se metía en la cama con una supuesta agente de la KGB.
Dicho vídeo, producido para hacer chantaje al presidente que, por aquel entonces, se decantaba políticamente hacia el bloque comunista, quedó al final como una mera anécdota de la historia, aunque tampoco era el primer caso de manipulación de imágenes con finalidades políticas.
Así lo atestiguan las fotografías que en los años 30, el régimen estalinista modificó -en una época en la que no habían ordenadores ni Photoshop- para eliminar de ellas a Trotski, principal enemigo de Stalin, y exiliado en México hasta su asesinato en 1940.
Los deep fakes porno nacieron hace unos años, cuando la tecnología de la inteligencia artificial empezó a permitir la realización de cambios de caras en vídeos y fotografías, y se dieron a conocer a través de los foros de Reddit, según explican en la sección de tecnología de The Economic Times, donde analizan también el rol que tendrán los deep fakes porno en el futuro.
Estos deep fakes son videos e imágenes creados o alterados digitalmente con inteligencia artificial. En su versión pornográfica, muestran a personas, que pueden ser tanto famosas como desconocidas, en situaciones de alto voltaje sexual, que no se corresponden con hechos sucedidos realmente. Obviamente, estas imágenes se generan sin el consentimiento explícito de la persona que es insertada en ellas.
Quienes son más afectados son las personas -y, especialmente, las mujeres- con perfiles públicos, y la difusión que están experimentando las herramientas de inteligencia artificial que facilitan la creación de este tipo de contenidos por parte de cualquiera, no solamente no ayuda a solventar la situación, sinó que la empeoran, poniendo en la mano de cualquiera que haga un vídeo pornográfico de una famosa o de su vecina. Y, luego, lo difunda a través de Internet.
El The Economic Times pone diversos ejemplos de los problemas provocados por la publicación de un deep fake pornográfico en Internet, como es el caso de la abogada e investigadora legal australiana Noelle Martin.
Martin encontró imágenes pornográficas manipuladas que la tenían a ella como protagonista hace diez años y, desde entonces, ha estado luchando para eliminarlas, a la par que promovía una legislación que sancione a las empresas que no eliminen ese contenido de sus sitios web.
Algunas compañías productoras de soluciones de IA afirman estar limitando el acceso a imágenes explícitas; OpenAI, por ejemplo, eliminó contenido explícito de los datos utilizados para entrenar su herramienta generadora de imágenes DALL·E. Midjourney, otro modelo, bloquea el uso de ciertas palabras clave y anima a los usuarios a denunciar imágenes problemáticas. Finalmente, la startup Stability AI también lanzó una actualización que elimina la capacidad de crear imágenes explícitas con su generador de imágenes Stable Diffusion.
Pero la responsabilidad también se encuentra en las plataformas de publicación; TikTok y Twitch han actualizado sus políticas para protegerse mejor contra este tipo de materiales. Además, Apple y Google también afirman haber eliminado una aplicación que promocionaba vídeos deep fake sexualmente sugerentes de actrices, de sus tiendas de aplicaciones.
Otro frente con el que se debe lidiar es la pornografía infantil generada mediante IA; en febrero, Meta, OnlyFans y Pornhub anunciaron su participación en una herramienta en línea llamada Take It Down, que permite a los adolescentes denunciar imágenes y vídeos explícitos de ellos mismos publicados en la red.
Esta herramienta funciona tanto para vídeos ‘reales’, como para contenido generado por inteligencia artificial.