Seguro has visto muchos de ellos: Jim Carrey protagonizando la película El Resplandor, de Stanley Kubrick; el expresidente de Estados Unidos, Donald Trump, actuando como Saul Goodman en Breaking Bad; el CEO de Meta, Mark Zuckerberg, admitiendo que Facebook posee a sus usuarios. Se les conoce como deep fakes (falsificaciones profundas) y son videos realistas generados con inteligencia artificial (IA) que ya suponen una amenaza global.

El término deep fake surgió por primera vez en 2017 para describir fotos, audios, videos y otras falsificaciones realistas generadas con IA. Al principio fueron inocentes y hasta divertidas, pero a medida que estas falsificaciones continúan sofisticándose, sus peligros también potenciales van en aumento. El Congreso de Estados Unidos considera que estas falsificaciones “podrían presentar una variedad de desafíos de seguridad nacional en los próximos años”.

Las deep fakes son un peligroso caldo de cultivo para la desinformación, manipulación de elecciones y de la opinión pública, difusión de teorías de la conspiración y noticias falsas, suplantación de identidad, daño reputacional, debilitamiento de la confianza pública; y su creación ya no es exclusiva de personas con conocimiento técnico para ello, ya que hoy existes softwares disponibles de forma gratuita que crean estas falsificaciones rápidamente.

“El uso de la IA para generar deep fakes está causando preocupación porque los resultados son cada vez más realistas, se crean rápidamente y se hacen a bajo costo con software disponible gratuitamente y la capacidad de alquilar potencia de procesamiento a través del cómputo en la nube. De este modo, incluso los operadores no cualificados podrían descargar las herramientas informáticas necesarias y, utilizando datos públicos, crear contenidos falsificados cada vez más convincentes”, alerta un documento del Congreso de EU, fechado el 17 de abril de este año, consultado por Forbes México.

¿Cómo se crean las deep fakes?

Según el texto antes citado del Congreso de EU, los deep fakes “se describen más comúnmente como falsificaciones creadas utilizando técnicas de aprendizaje automático (ML), un subcampo de la IA, especialmente las redes generativas antagónicas (GAN). En el proceso GAN, dos sistemas de ML llamados redes neuronales se entrenan en competencia entre sí. La primera red, o el generador, tiene la tarea de crear datos falsificados, como fotos, grabaciones de audio o secuencias de video, que replican las propiedades del conjunto de datos original”.

“La segunda red, o el discriminador, tiene la tarea de identificar los datos falsificados. En función de los resultados de cada iteración, la red del generador se ajusta para crear datos cada vez más realistas. Las redes continúan compitiendo, a menudo durante miles o millones de iteraciones, hasta que el generador mejora su rendimiento de tal manera que el discriminador ya no puede distinguir entre datos reales y falsificados”.

¿Cómo se podrían usar las deep fakes?

Las autoras del informe del Congreso estadounidense consultado por Forbes México refieren que “la tecnología deep fake se ha popularizado con fines de entretenimiento, por ejemplo, los usuarios de las redes sociales insertan al actor Nicholas Cage en películas en las que no apareció originalmente y un museo que genera una exposición interactiva con el artista Salvador Dalí”.

Las tecnologías deep fake también se han utilizado con fines benéficos. Por ejemplo, los investigadores médicos han informado que usan GAN para sintetizar imágenes médicas falsas para entrenar algoritmos de detección de enfermedades raras y minimizar las preocupaciones de privacidad del paciente.

“Sin embargo, las falsificaciones profundas podrían usarse con fines nefastos. Los adversarios estatales o las personas con motivaciones políticas podrían publicar videos falsificados de funcionarios electos u otras figuras públicas haciendo comentarios incendiarios o comportándose de manera inapropiada. Hacerlo podría, a su vez, erosionar la confianza pública, afectar negativamente el discurso público o incluso influir en una elección”, alertan las autoras.

El texto toma como ejemplo de lo anterior lo ocurrido en las elecciones presidenciales de 2016 en Estados Unidos. “La comunidad de inteligencia de Estados Unidos concluyó que Rusia participó en extensas operaciones de influencia durante las elecciones presidenciales de 2016 para ‘socavar la fe pública en el proceso democrático de Estados Unidos, denigrar a la secretaria Clinton y dañar su elegibilidad y posible presidencia’”.

Del mismo modo, en marzo de 2022, el presidente ucraniano Volodimir Zelenski anunció que un video publicado en las redes sociales, en el que parecía ordenar a los soldados ucranianos que se rindieran a las fuerzas rusas, era una deep fake. Si bien los expertos señalaron que esta falsificación profunda no era particularmente sofisticada, “en el futuro, las falsificaciones de audio o video convincentes podrían fortalecer las operaciones de influencia maliciosa”.

El documento consultado continúa haciendo notar que las deep fakes “también podrían usarse para avergonzar o chantajear a funcionarios electos o individuos con acceso a información clasificada. Ya hay evidencia de que agentes de inteligencia extranjeros han utilizado fotos falsas para crear cuentas falsas de redes sociales de las que han intentado reclutar fuentes”.

“Algunos analistas han sugerido que las falsificaciones profundas podrían usarse de manera similar para generar contenido incendiario, como videos convincentes de personal militar estadounidense involucrado en crímenes de guerra, destinados a radicalizar poblaciones, reclutar terroristas o incitar a la violencia”.

¿Se pueden detectar las deep fakes?

Las autoras del documento escriben que actualmente las falsificaciones profundas pueden ser detectadas sin herramientas especializadas, pero pronto, debido a la sofisticación de la tecnología con las que son elaboradas, será muy difícil o casi imposible la detección humana sin ayuda de la tecnología. Por esta razón el gobierno de Estados Unidos ha invertido en herramientas de detección de deep fakes.

La Ley de Identificación de Resultados de Redes Generativas Adversariales (P.L. 116-258) ordenó a la National Science Foundation (NSF) y al National Institute of Standards and Technology (NIST) apoyar la investigación sobre GAN. Específicamente, NSF está dirigido a apoyar la investigación sobre contenido manipulado o sintetizado y autenticidad de la información, y NIST está dirigido a apoyar la investigación para el desarrollo de mediciones y estándares necesarios para desarrollar herramientas para examinar la función y los resultados de GAN u otras tecnologías que sintetizan o manipulan contenido.

Además, la Defense Advanced Research Projects Agency “ha tenido dos programas dedicados a la detección de falsificaciones profundas: Media Forensics (MediFor) y Semantic Forensics (SemaFor). MediFor, que concluyó en el año fiscal 2021, debía desarrollar algoritmos para evaluar automáticamente la integridad de fotos y videos y proporcionar a los analistas información sobre cómo se generó el contenido falsificado”.

Según se informa, el programa exploró técnicas para identificar las inconsistencias audiovisuales presentes en las falsificaciones profundas, incluidas las inconsistencias en los píxeles (integridad digital), las inconsistencias con las leyes de la física (integridad física) y las inconsistencias con otras fuentes de información (integridad semántica).

SemaFor busca construir sobre las tecnologías de MediFor y desarrollar algoritmos que detecten, atribuyan y caractericen automáticamente (es decir, identifiquen como benignos o maliciosos) varios tipos de falsificaciones profundas. DARPA solicitó 18 millones de dólares para SemaFor en 2024, de los cuales 4 millones se ejercen este año.  

No obstante, “algunos analistas han señalado que las herramientas de detección basadas en algoritmos podrían conducir a un juego del gato y el ratón, en el que los generadores de falsificaciones profundas se actualizan rápidamente para abordar las fallas identificadas por las herramientas de detección”.

“Por esta razón, argumentan que las plataformas de redes sociales, además de implementar herramientas de detección de falsificaciones profundas, pueden necesitar expandir los medios de etiquetado y / o autenticación de contenido. Esto podría incluir el requisito de que los usuarios identifiquen la hora y el lugar en que se originó el contenido o que etiqueten el contenido editado como tal”, describen las autoras del informe del Congreso de Estados Unidos.

Publicidad