VIDEOS MANIPULADOS CON INTELIGENCIA ARTIFICIAL
El Deepfake hasta el la sopa
Jueves, 13 de junio de 2019
Por: Fernando Lerner - TW @srlerner

Los deepfake son videos manipulados en los que se ve a personas diciendo cosas que en realidad nunca han dicho y caras insertadas en cuerpos de otras personas; la inteligencia artificial al servicio de la manipulación y con variables en su intencionalidad.

A fines del 2017 llegó el boom del deepfake, principalmente en sitios pornográficos en los cuales se publicaban videos con el detalle, no menor, de que la cara de la actriz, era la de Emma Watson o la de Scarlett Johanson, entre otras actrices afectadas.

A principios del 2018, Pornhub, uno de los sitios para adultos más famosos a nivel mundial, decidieron prohibir este tipo de videos, los consideran abusivos.

Como explica la BBC en este artículo, "las únicas diferencias entre la actriz de Hollywood Emma Watson y la falsa estrella del porno "Emma Watson" son unos pocos pixeles, varias capas de ropa y una falta total de consentimiento."

Emma Watson, víctima del deepfake.

Previo a la explosión de los deepfake, se requería una codificación y trabajo complejo y una potente computadora para poder hacer un video como estos, tecnología que, por ejemplo, se utiliza en la industria cinematográfica en la etapa de post producción.

Una de las primeras tecnologías de este tipo, fue creada por ingenieros de Google y era de código abierto. Consiste en entrenar a una Inteligencia Artificial lo suficiente como para que sea capaz de reemplazar el rostro de las personas que aparecen en un vídeo, por el de otros famosos realizando los mismos gestos.

Pero no se quedó ahí, aparecieron variantes y otros desarrollos, ya no sólo era la suplantación del rostro. Con Deep Video Portrait, se pueden manipular vídeos para hacer que las personas que aparezcan en ellos, digan lo que sus creadores quieran.

Las herramientas siguieron multiplicándose y haciéndose cada vez más accesibles. En 2018, un usuario de Reddit creó FakeApp, una aplicación gratuita con la tecnología necesaria integrada que realiza el intercambio de caras sin mayor dificultad, hoy está al alcance de cualquiera.

FakeApp, una aplicación para hacer videos deepfake de forma sencilla.

Los deepfake no se quedaron solo en el porno, siguieron expandiéndose hacia otros terrenos, y la suplantación de rostro pasó a estar en segundo plano, para qué poner la cara de otra persona, si ahora podemos hacerle decir a un político, las barbaridades que se nos ocurran imitando casi a la perfección la voz de la víctima.

Uno de los primeros ejemplos que aparecieron fue el de un video del ex presidente estadounidense Barack Obama en el que, deepfake mediante, explica justamente los peligros de este tipo de producciones. 

El año pasado el Center for a New American Security (CNAS), una organización bipartidista estadounidense sin ánimo de lucro que busca promover temas de seguridad entre los políticos, publicó un estudio en el que advierte de que los Deep Fakes que involucran a políticos podrían ser tan reales como para engañarnos en los próximos 5 años.

"Los sistemas de IA son capaces de generar grabaciones de voz sintéticas realistas de cualquier individuo para quien hay un conjunto de datos de entrenamiento de voz lo suficientemente grande. Lo mismo pasa cada vez más también con el vídeo. Al escribir estas líneas, el audio y el video falsificados "Deep Fakes" se ven y suenan notablemente incorrectos, incluso para las personas no entrenadas. Sin embargo, al ritmo que estas tecnologías están progresando, es probable que estén a menos de cinco años de poder engañar al oído y los ojos no entrenados", explica el estudio, que ya tiene un año de antigüedad.

En los últimos días, los deepfake dieron un nuevo batacazo, y si tenemos en cuenta el plazo de 5 años que advierte el estudio mencionado, este tipo de tecnologías está demostrando que puede avanzar aún más rápido.

El 1 de junio, el Daily Beast publicó un artículo exponiendo al creador de un deepfake en el que aparecía la política estadounidense Nancy Pelosi hablando como si estuviera borracha, el video fue incluso compartido por el mismísimo presidente D. Trump y viralizado en las redes con el acompañamiento de comentarios que se burlaban de la oratoria de Pelosi.  

El 10 de junio el New York Times (NYT) tituló "Los Deepfakes están viniendo. Ya no podemos creer lo que vemos".   

El NYT en su artículo, manifiesta que en general tendemos a pensar que la percepción, es decir, la evidencia de lo que vemos y oímos, es justificación sólida. Si vemos algo con nuestros propios ojos, probablemente deberíamos creerlo. En cambio, si lo escuchamos en palabras de otra persona, si nos comparten un testimonio, tiene cierta justificación para creerlo, pero no tanto como si lo hubieramos visto en primera persona.

"Hasta hace poco, la evidencia de video funcionaba más o menos como percepción" dice el NYT, y agrega, "con la aparición de la tecnología deepfake, la capacidad de producir videos falsos convincentes estará casi tan extendida como la capacidad de mentir. Y una vez que eso suceda, deberíamos pensar en las imágenes más como un testimonio que como una percepción . En otras palabras, solo debe confiar en una grabación si confía en la palabra de la persona que la produce".

A principios de mes, ni Mark Zuckerberg zafó del deepfake, desde la cuenta de Instagram "bill_posters_uk", Bill Posters, Daniel Howe y la firma de publicidad Canny, publicaron un deepfake en el que aparece el fundador de Facebook dando una entrevista a un canal de televisión; el video es real, sucedió en septiembre del 2017, pero no sus palabras, con frases como: "Imagina esto por un segundo: un hombre con control total de los datos robados de miles de millones de personas, de todos sus secretos, sus vidas, sus futuros".

Zuckerberg no fue el único afectado, desde la misma cuenta subieron videos de Morgan Freeman, Donald Trump y Kim Kardashian, manipulados con esta misma técnica.

Hace pocos días se conoció el estudio "Text-based Editing of Talking-head Video", desarrollado en conjunto por expertos en aprendizaje automático (machine learning) de la Universidad de Stanford, el Max Planck Institute for Informatics, la Universidad de Princeton y el estudio Adobe Research.

Según lo explican en el artículo publicado, "la edición de un video de una cabeza parlante para cambiar el contenido del discurso o para eliminar palabras de relleno es un desafío. Proponemos un método novedoso para editar el video para que de forma realista, el diálogo del hablante se modifique, manteniendo el flujo audiovisual continuo, es decir, sin saltos en el video".

Inmediatamente a continuación de la explicación técnica, exponen sus consideraciones éticas, saben muy bien que esta misma tecnología, en manos equivocadas, podría hacer estragos.

"Nuestro enfoque de edición basada en texto sienta las bases para mejores herramientas de edición para la post producción de películas. Las escenas de diálogos grabados a menudo requieren una sincronización o edición basada en pequeños cambios de guiones, que actualmente requieren un trabajo manual tedioso (...) En resumen, nuestro trabajo fue desarrollado con fines narrativos".

Y agregan, "sin embargo, la disponibilidad de dicha tecnología, en una calidad que algunos pueden encontrar indistinguible del material de origen, también plantea preocupaciones importantes y válidas sobre el potencial de uso indebido (...) Reconocemos que los malos actores pueden usar tales tecnologías para falsificar declaraciones personales y calumniar a personas prominentes. Estamos preocupados por tal engaño y mal uso".

En sus consideraciones éticas, explican que creen esencial obtener el permiso de los artistas para cualquier alteración, llaman a tener una mayor consciencia social, desarrollar más técnicas para la detección de videos falsificados y reducir el potencial uso indebido de esta tecnología.

En el programa "Todo por la Tarde" por Radio Andina 90.1, Martín Silva Valent, director de la ONG Datas, que aborda temas vinculados a la gobernanza tecnológica, explicó que "no se trata solamente de regular o ver qué dice la ley, sino entender el ecosistema de estas tecnologías". 

Y agregó: "Lo que está en juego es el valor de la palabra, el ver para creer, que hasta ahora no había sido cuestionado, ese es el desafío que tenemos hoy para reconfigurarnos y requiere una actividad mucho más fuerte de parte del que recibe el contenido en discernir si lo que está viendo es verdad o no. Es importante la educación y acción crítica desde la comunicación, que cuando más avancemos en la capacidad de crear noticias falsas, más va a ser necesario para no ser engañados". 

Escuchá la charla completa con Martín Silva Valent:




Tamaño del texto
Comentarios
Tu comentario