Mentiras sin límites
Hola,
Acabamos de dar un paso mas en una de las tecnologías mas alucinantes y excitantes de los últimos tiempos, llamada red autogenerativa antagónica aunque la conocemos mas por deepfake, pero también estamos a un paso mas de no creer en nada de lo que aparece en una foto o un vídeo.
Si hasta ahora podíamos poner una cara, incluso sacada de una foto, en cualquier vídeo y éramos capaces a partir de un nuevo vídeo hacer que otro ya existente readaptara sus movimientos al nuevo, haciendo por ejemplo que Obama o Zuckerberg pareciera decir cosas que jamás habían dicho, el siguiente paso era la mezcla de todo. Esto lo está consiguiendo Yuval Nirkin, la explicación del funcionamiento es compleja pero aquí tenéis la web y el estudio donde se explica bien y abajo el vídeo de demostración.
Cuando se ven los vídeo generados por esta tecnología, por suerte, siguen viéndose errores que nos hacen darnos cuenta del deepfake. Aunque dicen que los han solucionado en una segunda fase pero que no piensa hacerla pública pos sus implicaciones. Esta tecnología necesita cada vez menos medios técnicos y menos horas invertidas para lograr los resultados deseados. Guai si haces una peli y a partir de un actor, viejos legajos y un busto de Julio Cesar haces aparecer un realista personaje en una historia sobre el imperio romano. Pero ¿y si haces un falso vídeo convincente de Trump ordenando a sus tropas invadir Corea del Norte, de una persona cometiendo un crimen que no ha cometido, de un periodista con credibilidad dando una noticia falsa, de una video-llamada de tu hija que dice que vayas a recogerla al cole que se ha caído y se ha hecho daño, de ti en la cama con la hermana de tu mujer,...? pon tu el límite. ¿Y las leyes? Pues aún deben andar redactando sentencia sobre retoques en Photoshop, cintas grabadas con el Out run y descargas del e-mule.
Acabamos de dar un paso mas en una de las tecnologías mas alucinantes y excitantes de los últimos tiempos, llamada red autogenerativa antagónica aunque la conocemos mas por deepfake, pero también estamos a un paso mas de no creer en nada de lo que aparece en una foto o un vídeo.
Si hasta ahora podíamos poner una cara, incluso sacada de una foto, en cualquier vídeo y éramos capaces a partir de un nuevo vídeo hacer que otro ya existente readaptara sus movimientos al nuevo, haciendo por ejemplo que Obama o Zuckerberg pareciera decir cosas que jamás habían dicho, el siguiente paso era la mezcla de todo. Esto lo está consiguiendo Yuval Nirkin, la explicación del funcionamiento es compleja pero aquí tenéis la web y el estudio donde se explica bien y abajo el vídeo de demostración.
Cuando se ven los vídeo generados por esta tecnología, por suerte, siguen viéndose errores que nos hacen darnos cuenta del deepfake. Aunque dicen que los han solucionado en una segunda fase pero que no piensa hacerla pública pos sus implicaciones. Esta tecnología necesita cada vez menos medios técnicos y menos horas invertidas para lograr los resultados deseados. Guai si haces una peli y a partir de un actor, viejos legajos y un busto de Julio Cesar haces aparecer un realista personaje en una historia sobre el imperio romano. Pero ¿y si haces un falso vídeo convincente de Trump ordenando a sus tropas invadir Corea del Norte, de una persona cometiendo un crimen que no ha cometido, de un periodista con credibilidad dando una noticia falsa, de una video-llamada de tu hija que dice que vayas a recogerla al cole que se ha caído y se ha hecho daño, de ti en la cama con la hermana de tu mujer,...? pon tu el límite. ¿Y las leyes? Pues aún deben andar redactando sentencia sobre retoques en Photoshop, cintas grabadas con el Out run y descargas del e-mule.
[ICCV 2019] FSGAN: Subject Agnostic Face Swapping and Reenactment
Comentarios
Publicar un comentario