Mark Zuckerberg confesó, hace unas pocas semanas y en vídeo, que debía su conocimiento de que los datos son el poder y que con ellos se puede controlar el futuro, además de que los está robando (nos los está robando...) a los usuarios de Facebook, gracias a la organización terrorista Spectre. Si no me creen, pueden buscar el vídeo. Pero, si no me creen, hacen bien.
Y es que el vídeo de ‘Zuck’ es una muestra realmente lograda de lo que se da en llamar deepfakes, vídeos producidos con la ayuda de inteligencia artificial, gracias a la cual podemos hacer decir lo que queramos a quien queramos. Son, por decirlo de alguna forma, el siguiente nivel en las fake news, básicamente porque nos creemos lo que vemos, no tanto lo que leemos.
Un origen distante, una breve historia
Aunque el nombre de deepfake es el producto de una tecnología reciente, la mentira en los medios audiovisuales no es algo nuevo, y no me estoy refiriendo a las tan manidas fake news, las noticias falsas, que de estas ha habido desde el principio de los tiempos. Mentir de palabra es fácil, manipular una imagen, no tanto.
Stalin ya recortó a Trotsky del lado de Lenin en una foto antes de que el Photoshop existiera siquiera como idea, utilizando (no él, si no sus especialistas), un bisturí y un aerógrafo, para que pareciera que nunca había estado allí. No obstante, no podemos considerarlo el primer deepfake de la historia, al no ser esta una imagen animada.
Los deepfakes se basan en el uso de machine learning, una de las tecnologías que forman parte de la disciplina de la inteligencia artificial, para aprender cómo funciona la forma de hablar y de moverse los humanos, y en la síntesis de imagen y voz para modificar un vídeo de forma que podamos hacer decir lo que queramos a quien queramos, trabajando a partir de un vídeo existente.
Generalmente, la inteligencia artificial que realiza el trabajo recibe la entrada de lo que debe decir y cómo debe moverse de un operario humano, y la refleja con el aspecto y voz de la persona a ser imitada en el vídeo.
Es de esta forma que un avatar fotorrealista animado de Mark Zuckerberg pudo decir lo que nunca ha dicho el verdadero creador de Facebook. Por lo menos, no en vídeo ni públicamente
En 1987, el film Rendez-vous in Montreal, de apenas poco menos de seis minutos, mostraba a una Marilyn Monroe y un Humphrey Bogart virtuales interaccionando en la pantalla. El estreno de esta pieza provocó un encendido debate entre los aficionados al cine sobre las posibilidades de futuro de la tecnología, que pasaban por “resucitar” a actores ya difuntos, como los dos antes mencionados.
No obstante, la tecnología todavía estaba en pañales, y se notaba mucho que quieres estaban en pantalla no eran personas, sino animaciones por ordenador.
Ha llovido mucho desde ese ya lejano 1987, y la tecnología ha avanzado muchísimo, incluida la captura de movimientos para la realización de movimientos por parte de avatares cinemáticos. Valga la redundancia, quien haya visto el film Avatar, lo sabrá de sobras.
El mundo del porno, pionero
Los habituales de Reddit acuñaron el término deepfakes para referirse a vídeos pornográficos en los cuales una secuencia rodada con una actriz del sector, era manipulada sustituyendo la cara de dicha actriz por una famosa.
En el sitio web AdultDeepfakes.com pueden encontrarse escenas de sexo explícito protagonizadas por Gal Gadot, Natalie Dormer, Scarlett Johansson, o Alexandra Daddario. Ninguna de estas actrices ha rodado nunca una escena de este tipo, todo el metraje que se puede ver en dicho sitio corresponde a deepfakes en los que en una escena rodada por otra actriz, se sobrepone el rostro de la actriz, animado de una forma que cuesta distinguir que sea una falsificación. El sueño de cualquier onanista, hecho realidad.
Las deepfakes no son inocuas; si las fake news han aupado al poder a Donald Trump, y han sido la causa de una masacre contra el pueblo Rohinyá, un vídeo manipulado con unas declaraciones explosivas tienen el potencial de provocar un gran daño. Y ningún gobierno o ente regulador está todavía preparado para ello.