Deepfakes: cómo los Redditors utilizan la inteligencia artificial para hacer pornografía de celebridades falsas

Deepfakes: cómo los Redditors utilizan la inteligencia artificial para hacer pornografía de celebridades falsas

Olvídese de los desnudos de celebridades con Photoshop: la nueva tendencia depravada son los videos porno de celebridades falsos impulsados ​​por el aprendizaje automático. En Reddit , los llaman 'deepfakes'. Con una aplicación, un poco de habilidad técnica y un par de videos en alta resolución de una celebridad, cualquiera puede transformar a su estrella porno favorita en su actriz favorita. Es una tendencia que está empezando a explotar y tiene implicaciones mucho más allá de la pornografía.



en un Poste de la placa base que puso los deepfakes en el mapa, Samantha Cole informó esta semana que ha surgido un subreddit de deepfakes, sobre todo, pero no del todo, pornografía. Un cartel allí, que se hace llamar 'deepfakeapp', creó una aplicación para que otros pudieran hacer fácilmente sus propios videos alterados.

'Con el tiempo, quiero mejorarlo hasta el punto en que los posibles usuarios puedan simplemente seleccionar un video en su computadora, descargar una red neuronal correlacionada con una determinada cara de una biblioteca disponible públicamente e intercambiar el video con una cara diferente con solo presionar un botón ”, dijo la aplicación deepfake a Motherboard.



Quizás el deepfake más impresionante hasta ahora es este CGI Princesa Leia, de Rogue One: Una historia de Star Wars , que parece comparable a la versión de gran presupuesto que apareció en la película. Un usuario llamado Derpfake afirmó que le tomó 20 minutos.

También hay algunos populares y divertidos. Nicolas Cage falsifica apareciendo en el subreddit. Los deepfakers realmente han asumido el papel icónico de Cage en Cara / Apagado en serio y le quitó la cara ... ¡fuera! Aquí está en el cuerpo de Sean Connery en un James Bond película:

https://gfycat.com/ConfusedScratchyCowbird



Pero sobre todo, el software se está utilizando para crear pornografía espeluznante, falsa pero lo suficientemente cercana, de actrices y cantantes populares. Emma Watson, Daisy Ridley, Natalie Dormer y Katy Perry son objetivos populares. Muchas de las falsificaciones son obvias, pero algunas logran cruzar el Uncanny Valley. Si eres un tipo cachondo que busca pornografía de celebridades, poco importa que este deepfake no sea 'realmente' Katy Perry.

katy perry intercambio de caras deepfake



Los deepfakers defienden su trabajo argumentando que la distinción entre lo real y lo falso se ha derrumbado tan completamente que usar las semejanzas de las personas de esta manera no importa. Si señala que es un salto muy corto desde las maquetas de pornografía de celebridades hasta la venganza que destruye la reputación protagonizada por cualquiera de nosotros, dirían que todos estamos más seguros si las herramientas de video falsas se generalizan tanto que no  el video se considera real o confiable. 'Nadie sabe si realmente eres tú' probablemente no sea tan reconfortante para las posibles víctimas de deepfake como podrían pensar estos creadores de videos.

'Lo que hacemos aquí no es sano ni honorable, es despectivo, vulgar y ciego para las mujeres con las que trabaja deepfakes', reconoció un cartel de deepfakes. Pero continuó argumentando que, “Si algo puede ser real, nada es real. Incluso las películas de sexo caseras legítimas utilizadas como pornografía de venganza pueden descartarse como falsificaciones a medida que este sistema se vuelve más relevante '.

'Si bien puede parecer lo MENOS moral que se puede hacer con esta tecnología, creo que la mayoría de nosotros preferiría que esté en manos de creadores de pornografía benignos que moldean la tecnología para centrarse más en la cultura de Internet', agregó.

Eso es un gran salto. La pornografía siempre ha estado a la vanguardia de la innovación tecnológica; apenas ha habido un gran invento en la historia que no haya sido adaptado para la masturbación, pero eso no significa que la sociedad en su conjunto se sienta automáticamente cómoda con que sus caras se editen en los cuerpos de otras personas. .



Años de exposición a Photoshops muy convincentes han capacitado a los usuarios de Internet para que sean escépticos ante cada imagen que ven. Incluso si parece completamente convincente, podría ser simplemente una hábil falsificación. Somos menos escépticos con el video: la tecnología para simular imágenes en movimiento es más nueva, más disparatada y menos extendida. Pero eso está empezando a cambiar y tendremos que dar a conocer esta nueva tecnología inquietante a nuestras cajas de herramientas de alfabetización mediática. En la era de las noticias falsas, el escepticismo es un reflejo valioso.