Tecnología deepfake
Tendencias

Tecnología deepfake

Una falsificación realista

La tecnología deepfake tiene sólo unos pocos años, pero ya se ha explotado en algo que es cautivante e inquietante. El término se acuñó en Reddit (colección masiva de foros en línea) en 2017 y se usa para describir la recreación en video de la apariencia o la voz de un humano a través de la inteligencia artificial. Casi cualquier persona puede crear un deepfake con una computadora, algún software y pocas horas de trabajo.

Hasta ahora, las falsificaciones profundas se han limitado a los aficionados que ponen las caras de celebridades en los cuerpos de estrellas pornográficas y hacen que los políticos digan cosas graciosas. Sin embargo, sería igual de fácil crear una alerta de emergencia falsa que advierta que un ataque es inminente, destruir el matrimonio de alguien con un video de sexo falso o interrumpir una elección cerrada lanzando una grabación apócrifa de uno de los candidatos días antes de que comience una votación.

¿CÓMO FUNCIONA?

La tecnología deepfake es un método para sintetizar una imagen humana utilizando inteligencia artificial (IA);  combina imágenes o videos sobre otro material audiovisual que se utiliza como base. Para esta superposición se emplea una técnica de aprendizaje automático llamada GAN (Generative Adversarial Network), que es una clase de algoritmo que se utiliza en el aprendizaje de máquinas no supervisado, implementada por un sistema de dos redes neuronales que compiten mutuamente en una especie de juego de suma cero.

El video manipulado por inteligencia artificial se ha vuelto tan sofisticado que las palabras literalmente se pueden poner en boca de las personas. El periodista Mark Kelley explora cómo se hace y sus profundas implicaciones. Foto: cbc.ca

Para crear un deepfake, la inteligencia artificial tiene que “aprender” cómo realizar su tarea prevista, es decir, crear la falsificación de una persona en video. Lo hace a través de un proceso de prueba y error, generalmente conocido como aprendizaje automático o profundo. Quien diseña la IA necesita proporcionar algunos datos para comenzar, junto con algunas “reglas” para corregir si algo sale mal en el camino.

El trabajo del GAN puede compararse con el trabajo de dos personas. El primero se dedica a falsificaciones, como las de billetes o pinturas, y el segundo trata de distinguir lo falso de lo original. Si el primer algoritmo ofrece una falsificación obvia, el segundo lo determinará de inmediato, luego de lo cual el primero mejorará su trabajo y propondrá una imitación más realista. Como resultado aparece la reproducción de una persona en un vídeo de apariencia bastante real.

Para esto, el deepfake utiliza muchas fotografías de un individuo: desde diferentes ángulos, posturas y con distintas expresiones faciales. Tras analizarlas, la GAN genera nuevas imágenes y luego las combina, resultando en la falsificación audiovisual. En realidad estos algoritmos se usan por muchas compañías e instituciones científicas. Por  ejemplo, los investigadores nucleares los usan para predecir el comportamiento de las partículas, y los médicos para mejorar la calidad de las imágenes que utilizan.

El software Maya 3D captura los movimientos del rostro de una persona para sobreponerlos en la imagen de otro individuo en video. Foto: Olivier Douliery/Getty Images

PELIGROS

Esta tecnología pone nerviosa a mucha gente, tanto que Marco Rubio, senador republicano de Florida en Estados Unidos, los llamó el equivalente moderno de las armas nucleares. “En los viejos tiempos”, dijo a una audiencia en Washington, “si querías amenazar a Estados Unidos, necesitabas 10 portaaviones, armas nucleares y misiles de largo alcance. Hoy, sólo necesitas acceso a nuestro sistema de Internet, a nuestro sistema bancario, a nuestra red eléctrica e infraestructura; todo lo que se necesita es la capacidad de producir un video falso muy realista que podría socavar nuestras elecciones, que podría llevar a nuestro país a una tremenda crisis interna y debilitarnos profundamente”.

En la India, los nacionalistas emplean las deepfake para desacreditar e incitar a la violencia contra las mujeres periodistas. En 2018, una reportera llamada Rana Ayyub fue víctima de una campaña de desinformación, que incluía un video falso de su rostro superpuesto en una escena pornográfica. Rana fue víctima de acoso en línea y de amenazaa de violencia física.

En Estados Unidos, esta tecnología a menudo se usa para crear videos pornográficos como venganza. Muchos  usuarios en un foro de Reddit, mismo que fue eliminado, preguntaron cómo crear videos falsos de ex novias, enamorados, amigos y compañeros de clase.

DEEPFAKES FAMOSOS

Dos artistas y una compañía de publicidad crearon una falsificación del fundador de Facebook, Mark Zuckerberg, y la subieron a Instagram. El video, creado por los artistas Bill Posters y Daniel Howe en sociedad con la firma publicitaria Canny, muestra a Zuckerberg sentado en un escritorio, aparentemente dando un discurso siniestro sobre el poder de Facebook. El video está enmarcado para que parezca que es parte de un segmento de noticias.

Jim Carrey como Jack Torrence (interpretado realmente por Jack Nicholson) en El Resplandor. Foto: YouTube/Ctrl Shift Face

Por otro lado, el canal Ctrl Shift Face en YouTube ha compartido un montaje en el cual se utiliza deepfake para colocar la cara del actor Jim Carrey encima de la de Jack Nicholson interpretando a Jack Torrrance en El Resplandor de Stanley Kubrick, su película de 1980.

Resulta inquietante reflexionar los alcances de la tecnología. Con este tipo de trabajos es posible imaginar que los actores podrían ya no ser necesarios en el futuro del entretenimiento, o que al menos se podría suplantar a uno por otro en diversas situaciones.

La compañía Buzzfeed creó un deepfake del expresidente de los Estados Unidos Barack Obama, en el que  aparentemente está en medio de un discurso político sobre la veracidad de las noticias y la facilidad para crear situaciones en las que una personalidad pública estuviera expresando opiniones que normalmente no diría. En el video de poco más de un minuto, el supuesto Obama también da su opinión sobre el actual presidente Donald Trump.

Incluso en su nivel más básico, estas imitaciones son inquietantes. Confiamos en las grabaciones de video y audio  para capturar las palabras y acciones de las personas sin prejuicios ni información errónea. Pero en cierto modo, la  amenaza de las falsificaciones profundas no es nueva en absoluto. Existe desde que comenzamos a usar la fotografía, alterando la imagen de muchas figuras históricas para facilitar su aceptación ante las masas, para generar mayor empatía o simplemente para convertirlos en arquetipos para motivar el nacionalismo.

Comentarios