Cómo detectar videos deepfake para prevenir la desinformación

Con los deepfakes cada vez más sofisticados, es más difícil que nunca diferenciar entre lo que es real y lo que no. Hoy, te contaremos algunos signos reveladores que te ayudarán a detectar videos deepfake. Con estas herramientas en la mano, esperamos que no se convierta en una víctima involuntaria de noticias falsas y teorías de conspiración. También le daremos una idea sobre la tecnología deepfake, cómo funciona y cómo la utilizan los propagandistas y los teóricos de la conspiración para difundir desinformación e influir en los cibernautas para que crean falsedades.

Detecte videos deepfake para prevenir la desinformación y las teorías de conspiración

Actualmente, los aficionados a las falsificaciones son utilizados en gran medida por los aficionados a la transformación de rostros de celebridades en videos para adultos y por elementos políticos desagradables para difundir noticias falsas. Sin embargo, los expertos están preocupados por usos aún más peligrosos de la tecnología en un futuro no muy lejano. Entonces, aquí, enumeramos algunas de las formas de ayudarlo a detectar videos deepfake para evitar que se convierta en víctima de desinformación maliciosa.

¿Qué son los videos deepfake?

Una combinación de los términos ‘aprendizaje profundo’ y ‘falso’, los deepfakes se refieren a medios manipulados que utilizan inteligencia artificial o técnicas de aprendizaje profundo para crear audio o videos que distorsionan la realidad. La tecnología utiliza redes neuronales artificiales para crear videos hiperrealistas que parecen mostrar a personas diciendo o haciendo algo que no hicieron en la vida real. Los ejemplos más virulentos incluyen videos transformados con la ayuda del aprendizaje automático para poner palabras en la boca de los políticos. Esto se utiliza para crear confusión sobre sus políticas e influir en las elecciones.

Otro uso tóxico de los deepfakes es transformar los rostros de las celebridades en videos para adultos en violaciones masivas de la privacidad y la dignidad. Los deepfakes se han convertido en un problema masivo en los últimos años y solo está empeorando con la disponibilidad de hardware más rápido y software más incisivo. La tecnología ha ganado notoriedad en los últimos tiempos por su amplio uso en videos pornográficos, noticias falsas y engaños elaborados.

Sin embargo, no todos los usos de los deepfakes son turbios, como lo demuestra el siguiente video que fue creado por el académico del MIT, Alexander Amini, para hacer reír a sus estudiantes. Aparentemente, muestra al ex presidente de los Estados Unidos, Barack Obama, invitando a los estudiantes a unirse a la conferencia de Amini sobre aprendizaje profundo en la universidad. Sin embargo, es un deepfake de principio a fin, como claramente reveló el investigador en su canal de YouTube.

¿Cómo funcionan los deepfakes?

Los deepfakes se basan en una red neuronal artificial llamada ‘autoencoder’, que se utiliza para aprender codificaciones de datos eficientes de manera no supervisada. Suele utilizarse para el reconocimiento facial, así como para encontrar el significado semántico de palabras, etc. En el caso de los videos deepfake, la tecnología primero usa un codificador para entrenar una red neuronal en muchas horas de metraje de video real del individuo objetivo. Luego, un decodificador reconstruye una nueva imagen utilizando información clave sobre sus rasgos faciales y postura corporal. Esto ayuda al algoritmo a superponer las características físicas y faciales del objetivo a la persona en el video original.

Una tecnología bien conocida en este sentido es una clase especializada de algoritmos de aprendizaje profundo denominada red generativa adversaria. A menudo se agrega GAN al decodificador para obtener resultados más precisos. Un GAN entrena al decodificador y al discriminador de manera que el primero crea nuevas imágenes a partir del material de origen, mientras que el segundo determina si la imagen recién creada coincide o no con el metraje real. Esto hace que el generador cree imágenes que imitan la realidad extremadamente bien, porque el algoritmo adversario detecta cualquier defecto.

Esto hace que los deepfakes sean extremadamente difíciles de combatir, ya que están en constante evolución. Cada vez que aparece un defecto, se puede corregir automáticamente mediante el aprendizaje automático. Como no requiere ninguna intervención humana, GAN se ha convertido en la mejor opción para la mayoría de los creadores de deepfake. Sin embargo, la tecnología es complicada y requiere mucho más tiempo y datos para crear composiciones realistas. Además, aunque las GAN son buenas para sintetizar imágenes, tienen dificultades para preservar la coherencia temporal, lo que significa que necesitan la intervención humana para conservar la alineación de las imágenes de un fotograma al siguiente.

¿Qué son los videos falsos superficiales?

Un video falso superficial es una versión alterada de un video real existente, creado para proyectar una realidad distorsionada. Esto a menudo incluye la edición selectiva, la manipulación de la velocidad de los discursos o las conversaciones de las personas e incluso cambiar la tonalidad para que suene como si alguien estuviera enojado, intoxicado o burlándose de un tema serio, cuando nada de eso es cierto.

Un caso reciente notable incluye el notorio video modificado de la presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi, cuyo video falso superficial ralentizó su discurso para hacerla sonar ebria. Estos videos son diferentes de los deepfakes en la medida en que son videos reales manipulados con herramientas tradicionales de edición de video en lugar de algoritmos de inteligencia artificial.

Deepfakes: historia y aplicaciones

Las técnicas de manipulación de fotografías se inventaron originalmente a finales del siglo XIX. La tecnología mejoró constantemente a lo largo del siglo XX antes de que la explosión de la inteligencia artificial y las tecnologías de aprendizaje automático la convirtieran en un problema masivo para los internautas de todo el mundo. Las técnicas de manipulación de video infundidas con IA han sido ampliamente estudiadas por investigadores desde la década de 1990, y desde entonces muchos de los métodos han sido adoptados por cineastas de todo el mundo.

Uno de los ejemplos más conocidos del uso de deepfakes en la industria del entretenimiento convencional fue la resurrección del difunto actor Paul Walker para Rápido y Furioso 7 en 2015. Sin embargo, si bien decenas de expertos tardaron varias semanas en crear una recreación creíble de Walker, ahora la mayoría de los aficionados con muy poco conocimiento de codificación solo necesitan horas (o incluso menos) para crear nuevos videos deepfake utilizando nuevas técnicas y algoritmos. El fenómeno entró en la conciencia pública por primera vez en 2017 cuando un Redditor usó deepfakes para crear y publicar videos pornográficos falsos de celebridades.

Peligros de los videos deepfake

Los videos deepfake son un peligro para los usuarios desprevenidos que pueden ser bombardeados con imágenes de un supuesto evento desestabilizador, como una guerra o un ataque terrorista que nunca ocurrió. Puede causar resentimiento y descontento en la sociedad, lo que lleva a un aumento de los ataques por motivos políticos basados ​​en las identidades raciales, religiosas y étnicas de las personas. La tecnología también podría usarse para difundir FUD (miedo, incertidumbre y duda) sobre desastres naturales, causando un pánico generalizado. Los expertos también predicen que si no se controlan, estos videos pueden provocar profundas crisis políticas e incluso perturbar las relaciones internacionales.

Otro problema importante que ya ha adquirido proporciones pandémicas es la amenaza contra las mujeres desprevenidas. A menudo denominada pornografía no consensuada, los videos para adultos deepfake supuestamente representaron más del 90% de todos los deepfakes en Internet en 2019. Si bien comenzó con videos transformados que mostraban a celebridades como Gal Gadot y Alexandra Daddario, desde entonces se ha expandido para apuntar mujeres como parte de campañas de pornografía de venganza falsas.

¿Cómo detectar videos deepfake?

La detección de videos deepfake es un trabajo que incluso a los expertos les resulta difícil sin las herramientas adecuadas. Sin embargo, los investigadores del Instituto de Tecnología de Massachusetts (MIT) han presentado varias sugerencias que pueden ayudar a la gente común a diferenciar entre videos reales y deepfakes. Según ellos, es necesario prestar mucha atención a la cara mientras se intenta comprobar si un video de un sujeto humano es real o falso. Eso es porque las manipulaciones deepfake de alta gama son casi siempre transformaciones faciales.

Las áreas de la cara a las que se debe prestar más atención son las mejillas y la frente. ¿La piel parece demasiado lisa o demasiado arrugada? ¿Es la edad de la piel similar a la edad del cabello y los ojos? “Los DeepFakes a menudo son incongruentes en algunas dimensiones”, dicen los investigadores. Del mismo modo, los ojos y las cejas también pueden ser signos reveladores para los observadores de deepfake experimentados. Eso es porque, según los investigadores, las sombras en los videos deepfake no siempre aparecen en los lugares esperados. “Los DeepFakes a menudo no logran representar completamente la física natural de una escena”, ellos dicen.

Otra característica que lo delata es el vello facial. Los deepfakes pueden agregar o quitar bigote, patillas o barba, pero a menudo no logran que las transformaciones del vello facial parezcan completamente naturales. Lo mismo ocurre con los lunares faciales que a menudo no se ven lo suficientemente naturales en los deepfakes. El tamaño y el color de los labios también pueden dar una pista sobre la validez de un video. La frecuencia y la velocidad del parpadeo también podrían decir mucho sobre si un video es real o falso. Un parpadeo anormalmente frecuente o infrecuente podría indicar la falsedad profunda de un video.

Según los investigadores del MIT, los deepfakes de alta calidad no son fáciles de detectar, pero “Con la práctica, las personas pueden desarrollar la intuición para identificar qué es falso y qué es real”. Los investigadores también crearon una página web completa donde la gente puede subir videos e intentar adivinar si son reales o falsos. Puede probar sus habilidades de detección de deepfake en el sitio web Detect Fakes del MIT.

Deepfakes: prevención y acción legislativa

Varios países de todo el mundo ya están tratando de abordar el peligro claro y presente que representan las falsificaciones profundas infundidas con IA. Si bien China prohibió los videos deepfake en 2019, el estado de California en EE. UU. También introdujo una legislación similar a principios del mismo año para hacer que los deepfakes políticos sean ilegales, prohibiendo la creación o distribución de videos, imágenes o audio manipulados de políticos dentro de los 60 días posteriores a una elección. . Desde entonces, otros estados de EE. UU., Incluidos Texas y Virginia, también han criminalizado el porno deepfake. En diciembre de 2019, el presidente Trump firmó la primera ley federal del país para combatir las falsificaciones profundas como parte de la Ley de Autorización de Defensa Nacional de 2020.

Mientras tanto, en India, no existen leyes específicas sobre los medios deepfake. De hecho, las leyes relacionadas con los algoritmos de inteligencia artificial son, en el mejor de los casos, incompletas. Uno de los usos más notables de los deepfakes en el país se vio durante las elecciones de Delhi de 2020, cuando la célula de TI del BJP lanzó un video oficial de campaña que pretendía mostrar a su candidato ministerial en jefe, Manoj Tiwari, apelando a los votantes en hindi, haryanvi e inglés. . El problema es que solo el video en hindi era real, mientras que los otros dos eran clips falsos fabricados con el video original para llegar a una muestra más amplia de votantes.

Evite la propagación de la desinformación detectando videos deepfake

Una vez que el dominio exclusivo de producciones de Hollywood multimillonarias y de agencias y organizaciones patrocinadas por el estado, los deepfakes se han democratizado cada vez más en los últimos tiempos. Esto permite a los internautas habituales crear deepfakes utilizando aplicaciones y sitios web de deepfake. Con el aumento astronómico de deepfakes en los últimos años, poder detectarlos es más importante que nunca.

Esperamos que la información aquí le haya ayudado a darle una idea más holística de la tecnología, las amenazas que plantea y las señales que debe tener en cuenta para detectar mejor los videos deepfake en el futuro. Entonces, ¿alguna vez ha sido víctima de deepfakes de desagradables grupos de acción política o teóricos de la conspiración? Háganos saber en los comentarios a continuación.

También te podría gustar...

Esta web utiliza cookies propias para su correcto funcionamiento. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Configurar y más información
Privacidad