ep zao la app que generaliza el deepfake
ZAO, la app que generaliza el deepfakeAPPLE

MADRID, 18 (Portaltic/EP)

Casos recientes como los de los vídeos virales de actores famosos como David Hasselhoff o también Tom Cruise con las caras modificadas o el de la aplicación china Zao, que permite cambiar un rostro por otro en un vídeo, son ejemplos claros de una tendencia: la del 'deepfake' o la manipulación de contenidos audiovisuales.

Con herramientas de aprendizaje profundo, el 'deepfake' difumina los límites entre la realidad y la ficción al transformar con gran realismo la apariencia y la voz de las personas, lo que plantea cuestiones importantes sobre la veracidad de lo que se está viendo, siendo capaz de dañar la imagen de aquellos a los que ha suplantado.

El 'deepfake' empezó a conocerse a finales de 2017 con una serie de vídeos pornográficos supuestamente protagonizados por personajes públicos, generalmente de mujeres, que resultaron ser falsos: los rostros habían sido manipulados por un usuario de Reddit (identificado precisamente con el nick 'deepfake') para que mostraran el de actrices y cantantes como Gal Gadot, Taylor Swift o Scarlett Johansson, sin su consentimiento.

Esta experiencia mostró el grado de realismo con el que la inteligencia artificial era capaz de suplantar a una persona y de engañar a quienes veían los vídeos. Desde entonces, este tipo de manipulaciones no ha hecho más que crecer por la Red, aunque no todas se enfocan a desnudar a las mujeres.

La aplicación china Zao ha sido uno de los ejemplos más claros de 'deepfake' a nivel del usuario. Zao generaliza el 'deepfake' al permitir a cualquier usuario modificar el rostro de una persona en un vídeo, siendo necesario para ello solamente un selfi, y generando vídeos fuidos y realistas.

No obstante, otro aspecto importante de la aplicación reside en sus políticas de uso ya que se ha descubierto que, al igual que sucedía con la aplicación que envejecía y rejuvenecía a las personas, FaceApp, estas también plantean riesgos para la privacidad.

Recientemente, y sin utilizar las herramientas de la popular aplicación FaceApp, el canal de YouTube VFXChris Ume ha creado otro vídeo que se ha convertido en viral en el que modifica a través de técnicas de postproducción de vídeo una entrevista actual al actor de Los Vigilantes de la Playa David Hasselhoff mostrándolo muy rejuvenecido.

Otro de los canales de YouTube más populares dedicados al 'deepfake' es 'Ctrl Shift Face', que emplea una herramienta de código abierto llamada DeepFaceLab, que se basa en aplicar la técnica del intercambio de caras en vídeos.

Uno de los vídeos más populares de este canal recoge un fragmento de una entrevista televisiva del actor Bill Hader que en un momento dado, de forma fluida y sin interrupciones, adquiere el rostro de Tom Cruise, antes de volver al de Hader.

Menos fluido, pero igual de sorprendente, es el montaje realizado en un fragmento de un discurso de la actriz Jennifer Lawrence en los Globos de Oro con el rostro y la voz del actor Steve Buscemi.

EL REY LEÓN Y EL 'DEEPFAKE'

Esta tecnología, además de suplantar identidades, también sirve para mejorar. Es el caso de Jonty Pressinger y la película El Rey León.

Este artista publicó un 'deepfake' en su cuenta de Instagram con una versión en la que los personajes de la película, diseñados para ser fieles a los animales reales, estaban modificados para obtener unos rasgos más expresivos y parecerse más al diseño que tienen en la película de animación (siguiendo las creaciones de Nikolay Mochkin).

El 'deepfake' fue todo un éxito tras las numerosas críticas que la película de acción real ha recibido por la falta de expresividad en los personajes del 'remake'.

GENERACIÓN DE ROSTROS FALSOS

ThisPersonDoesNotExist.com es una página que se ha hecho famosa por el empleo de inteligencia artificial para generar caras falsas. Para ello, emplea una red generativa adversarial (GAN, por sus siglas en inglés) que opera con Inteligencia Artificial analizando enormes cantidades de retratos de personas reales, de manera que aprende los patrones para luego replicar lo que han visto.

Para alcanzar las replicas perfectas, la IA realiza un entrenamiento basado en la repetición exhaustiva del proceso. Una parte de la red genera rostros y la otra los compara con sus procesos de entrenamiento. Si al comparar nota un fallo de precisión, el generador revisa su trabajo y crea una cara nueva.

Jevin West y Carl Bergstrom de la Universidad de Washington (Estados Unidos) crearon la página WhichFaceIsReal.com, que pone a prueba la capacidad de los usuarios para distinguir las falsificaciones generadas por inteligencia artificial de fotografías y vídeos reales.

La intención de estos investigadores es "hacerte consciente de la facilidad con que las identidades digitales pueden falsificarse y ayudarte a localizar estas falsificaciones de un solo vistazo". Para ello, muestran una fotografía real de otra que no lo es (que ha sido creada con una GAN y publicada en ThisPersonDoesNotExist.com) y muestran los puntos en los que hay que fijarse para poder ver la trampa (por el momento ) en un sistema en continua evolución y mejora.

LOS RIESGOS DE LOS 'DEEPFAKE'

La precisión de los programas que permiten modificar los contenidos audiovisuales pueden suponer un problema a la hora de diferenciar la realidad de la ficción, e incluso dañar la reputación o la imagen de un individuo que no ha consentido la utilización de su imagen o su voz.

Desnudar a mujeres sin su consentimiento se ha convertido en el uso más controvertido de las técnicas de 'deepfake'. Además del caso de la manipulación de los vídeos pornográficos para que mostrara el rostro de celebridades, este verano apareció una aplicación (Deep Nude app) que generaba desnudos a partir de imágenes con personas vestidas.

A pesar de que no generaba imágenes de alta calidad, las que creaba a simple vista podía parecer una imagen de verdad, que podía usarse para amenazar, acosar e intimidar a las mujeres afectadas (la aplicación no funcionaba con fotografías de hombres).

Esta tecnología también supone un problema en el caso de la información que circula por Internet. Si ya es preocupante el fenómeno de las noticias falsas ('fake news'), también preocupa la manipulación realista de personajes públicos en vídeos donde tratan temas importantes, como durante las campañas electorales.

La tecnología del 'deepfake' puede suplantar la identidad de líderes políticos e identificarlos con discursos que pueden ser comprometidos y falsos. Puede, asimismo, dar lugar a la manipulación de noticias y distorsionar la realidad de la actualidad y la política.

Un ejemplo de esto es el vídeo manipulado de la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi. En él, se muestra una parte de un discurso que pronunció en el Center for American Progress, pero con la voz ralentizada, como si arrastrara las palabras al hablar.

Los artistas británicos Bill Posters y Daniel Howe crearon una serie de vídeos manipulados para una muestra publicitaria en los que personajes públicos como el CEO de Facebook, Mark Zuckerberg o el presidente de Estados Unidos, Donald Trump, aparecen frente a la cámara, de vídeos reales, pero pronunciando un discurso distinto.

Estos ejemplos, aunque con finalidades publicitarias e instructivas y que no llegan tener impacto sobre la imagen de los afectados, se incorporan a una corriente actual que ha mostrado los riesgos del 'deepfake' a través del cuestionamiento de los límites entre realidad y ficción.

contador