‘Porno Deepfake’, los videos con famosos falsos que es una bomba de tiempo

 
 

¿Todo esto es legal? La inteligencia artificial que sirve al porno y que está dividiendo opiniones en todo el mundo.

Por: Redacción / Esquire ES @Esquirelat

 

Todo comenzó hace un año. Al calor del éxito de Wonder Woman, apareció un vídeo más caliente aún en varias páginas pornográficas en el que parecía verse a Gal Gadot, la protagonista de la película, manteniendo relaciones sexuales con un supuesto hermanastro. Evidentemente era falso, pero es que en pantalla se veía la cara de la actriz. La industria del porno ha jugado desde hace décadas con fichar a actrices y actores que se parecen a celebrities, y también hay parodias porno de mil y una películas o de situaciones similares a la realidad, pero esto era diferente. Es que era Gal Gadot.

Efectivamente, era su cara. Recreada con un sistema de inteligencia artificial sobre el cuerpo de otra actriz. Esa técnica que ya utiliza el cine con ejemplos muy logrados como las escenas de Carrie Fisher en Rogue One, ya es asequible para presupuestos muchísimo más bajos. Con este vídeo porno de Gal Gadot se inauguraba una nueva categoría del porno que un usuario de Reddit bautizó como deepfake, algo así como 'falsedad profunda'. Lo que gusta la profundidad en este mundo.

El género deepfake es una evolución natural de aquellos montajes de famosos desnudos que escandalizaban en los albores de internet y que ahora se ven más como estampitas vintage. Como era de esperar, al vídeo de Gadot le han seguido muchos con las caras de Taylor Swift, Scarlett Johansson… Cualquier celebrity puede verse involucrada: tan solo se necesitan fotografías y vídeos de su cara desde todos los ángulos y con diferentes expresiones para montar el invento. El mismo creador del vídeo de Gadot explicó como lo hizo en Motherboard, y realmente es una técnica al alcance casi de cualquiera

Las preguntas se acumulan. ¿Es legal? ¿Dónde se puede ver? ¿Nos lo podrían hacer a nosotros mismos para chantajearnos? Vamos poco a poco.

Sobre la legalidad, es complicado actuar contra los productores de estos vídeos porque sería comparable a grabar a una actriz o actor con una careta de un famoso. Está claro que se está atentando contra el derecho a la imagen y a la intimidad de una persona concreta, pero a nivel estricto solo se está exponiendo su cara extraída de imágenes tomadas en público, nada de su vida privada. El típico vacío legal que rodea a las nuevas tecnologías.

Por ahora, la única protección viene de la propia ética de los servidores de este tipo de vídeos: por ejemplo, el gigante Pornhub ha prohibido el deepfake en su web, e invita a los usuarios a denunciar los vídeos de este tipo que se cuelen en su dominio. Otras empresas como Reddit y Twitter también se han comprometido a cortar su distribución, catalogando en deepkafe como "contenido no consensuado", "pornografía involuntaria" o "vídeos intimidatorios".

El género deepfake sin duda es una faena para los famosos afectados, pero esto es solo la punta del iceberg, por buscar una metáfora que enfríe un poco el ambiente. Ya hay apps que permiten hacer estos intercambios de cara de forma más o menos rudimentaria, siempre con apariencia lúdica, pero es evidente que esa facilidad para suplantar la imagen de cualquiera es una puerta enorme a problemas más graves. Por ejemplo, ya hay un conflicto muy serio con la utilización de vídeos íntimos para extorsionar a otras personas: ahora ya ni siquiera hace falta que exista realmente ese vídeo porque se puede falsear. ¿Y qué pasa si alguien te atribuye un delito con un vídeo como prueba en el que se ve tu cara? O dándole la vuelta: cualquiera grabado en una situación punible puede defenderse diciendo que no es él, sino un montaje creado con inteligencia artificial. Como un capítulo X de Black Mirror que se acaba de hacer realidad.

NOTA RELACIONADA: QUITAR EL BIGOTE DE SUPERMAN COSTÓ $25 MDD, PERO ALGUIEN LO HIZO MEJOR POR $500 (Y SOBRÓ CAMBIO)

 

Crédito de foto y video: Retomada de Esquire ES, YouTube, Getty

 

Comenta esta nota