Aquí te dejamos la respuesta.
Para las víctimas de venganza pornográfica y otro material explícito compartido sin consentimiento, los recursos legales han llegado en la última década . Pero gracias a la tecnología asistida por IA, cualquier persona con presencia en línea podría terminar protagonizando pornografía contra su voluntad, y la ley no puede hacer nada al respecto.
Durante las últimas semanas, un subreddit llamado «deepfakes» se ha saturado con imágenes adulteradas que muestran figuras famosas, en su mayoría mujeres, participando en actos sexuales, en las que sus rostros se pueden borrar de forma verosímil en imágenes pornográficas, GIF o videos. «ScarJo, take three» parece mostrar a Scarlett Johansson masturbándose en una ducha. «Taylor Swift» es una foto borrosa de la cantante siendo penetrado. «La cinta de sexo de Emma Watson» parece contar con la desaparición de la actriz.
En diciembre de 2017 , Motherboard dio la noticia de que un Redditor con el nombre de «deepfakes» había descubierto cómo crear este tipo de porno falso intercambiado en la cara , y la tecnología asistida por la IA avanzó rápidamente . En enero , no solo había un subreddit dedicado a «deepfakes», sino que había una aplicación diseñada para facilitar su creación.
A medida que la comunidad que lo rodea ha crecido, desde el subreddit hasta un canal Discord ahora prohibido , también tienen el número y la calidad de deepfakes. Aunque hay aplicaciones benignas de esta tecnología, es inofensivo intercambiar al actor Nicolas Cage por un montón de cameos tontos, es mucho menos lindo en manos de alguien con objetivos más maliciosos, como colocar participantes poco dispuestos en videos de sexo explícitos. La pornografía con Photoshop ya es una herramienta común de acoso desplegada contra las mujeres en Internet; un video hace que la violación sea mucho más activa y más difícil de identificar como falsificada.
A medida que los deepfakes se vuelven más refinados y fáciles de crear, también destacan la insuficiencia de la ley para proteger a las posibles víctimas de esta nueva tecnología. ¿Qué puede hacer si está insertado en imágenes o videos pornográficos en contra de su voluntad? ¿Está prohibido por ley crear, compartir y difundir pornografía falsificada con la cara de otra persona?
Te puede interesar: ¿Cuántas mujeres ven porno?
La respuesta es complicada La mejor manera de obtener una foto pornográfica o un video pornográfico derribado es que la víctima reclame la difamación o el derecho de autor, pero ninguno ofrece un camino garantizado de éxito, dice Eric Goldman, profesor de derecho de la Facultad de Derecho de la Universidad de Santa Clara. director del High Tech Law Institute de la escuela. Aunque existen muchas leyes que podrían aplicarse, no existe una ley única que cubra la creación de videos pornográficos falsos, y no existen recursos legales que mejoren por completo el daño que los deepfakes pueden causar.
«Es casi imposible borrar un video una vez que se ha publicado en Internet», dice Goldman. «… Si estás buscando la varita mágica que puede borrar ese video de forma permanente, probablemente no exista».
Un reclamo por difamación podría ser efectivo porque la persona representada en el video no está realmente en él, explica Goldman. Es una declaración de hecho falsa sobre la presencia de la víctima, por lo que teóricamente podrían obtener un juicio contra el autor que ordena la eliminación del video o las imágenes. Sin embargo, un reclamo de difamación es difícil de ganar. «Las reclamaciones por difamación pueden ser costosas, y si se trata de editores de contenido anónimos o en el extranjero, ni siquiera son tan útiles», dice Goldman.
Si las víctimas de deepfakes esperan obtener ayuda de las propias plataformas, también enfrentan un camino difícil. Las plataformas podrían prohibir las imágenes o comunidades por violar sus términos de servicio, como lo hizo Discord. Pero la sección 230 de Communications Decency Act (a menudo acortada a CDA 230) dice que los sitios web no son responsables por el contenido de terceros. «Entonces, si un chico malo crea un video falso y lo publica en un sitio de un tercero, ese sitio de terceros no será responsable de ese video y no se lo puede obligar a eliminarlo», afirma Goldman. Cualquier medida cautelar que recibió una víctima solo se aplicaría a la persona que compartió el contenido, y no a la plataforma.
También podría ser posible eliminar un video con un reclamo de derechos de autor. La persona o las personas que poseen los derechos de autor del video original, es decir, el material pornográfico no protegido deepfakes basado en, podrían reclamar una infracción basada en la modificación y la nueva publicación.
El propietario de los derechos de autor tendría el derecho de afirmar que la reedición del video es una infracción de derechos de autor», dice Goldman. «Un par de ventajas de eso. Una es que los mandamientos son un remedio estándar para la infracción de derechos de autor, a diferencia de la difamación, donde es un poco más turbio. Y dos es que la sección 230 no se aplica a las reclamaciones de derechos de autor «.
En otras palabras, aunque un sitio web no tiene la obligación de eliminar un video por difamación, tendría que extraer un video que infringe los derechos de autor o enfrentar una responsabilidad igual a la de la persona que publicó el video. Sin embargo, esto no es de mucha ayuda para la víctima específica que aparece en el video, ya que es probable que no sea dueño de ese derecho de autor.
El sitio también señala que no afirma ser propietario de los derechos de las imágenes o videos en el sitio. En teoría, esto podría ayudar a disminuir la confusión acerca de la veracidad del contenido, dice Goldman, abordando de ese modo posibles afirmaciones de difamación. Sin embargo, no ayudará con el copyright. «Además, para los videos que ‘se filtran’ desde el sitio al resto de Internet, los descargos de responsabilidad probablemente no ayuden con ninguna defensa legal», agrega.
Goldman también señala que las leyes que rigen el porno de venganzas son una posible vía para las víctimas que buscan justicia, especialmente a medida que ese campo de legislación particular continúa desarrollándose. Escribió un documento sobre la difusión de la pornografía no consensual, que analiza el agravio de la ley común infligir intencionalmente angustia emocional.
Deepfakes también podría expandirse a áreas problemáticas más allá de la pornografía y utilizar la tecnología para crear «noticias falsas» en las que participen políticos y otras figuras públicas, o casi cualquier persona. A pesar de que los legisladores podrían intentar elaborar nuevas leyes que aborden el tema de la pornografía intercambiada en el contexto de la Primera Enmienda, Goldman cree que la solución deberá ir más allá de la legal. «Creo que tenemos que prepararnos para un mundo donde estamos rutinariamente expuestos a una mezcla de fotos y videos falsos y verídicos», dice.