Cómo reducir el impacto de los deepfakes

Ya que los deepfakes son cada vez más comunes y convincentes, ¿cómo puedes proteger tu negocio?

Los deepfakes son un desafortunado producto de los recientes desarrollos en el campo de la inteligencia artificial. Las noticias falsas generadas por los algoritmos de aprendizaje automático han ganado repercusión en los últimos años. La charla de Alyssa Miller en la conferencia RSA del 2020, titulada Hemos perdido la realidad, proporciona algunas reflexiones sobre por qué ha llegado el momento de considerar los deepfakes como una amenaza (a parte del año electoral) y qué puede hacer tu empresa para reducir su impacto si se viera atacada de este modo.

Cómo se generan en los deepfakes

El método más común para crear un deepfake es utilizar un sistema llamado GAN, o red generativa antagónica. Los GAN se componen de dos redes neurales que antagonizan entre ellas. Con el fin de prepararlas, ambas redes se entrenan con imágenes verdaderas. Luego viene la parte antagónica, en la que una red genera imágenes (de ahí el nombre generador) y la otra intenta determinar si la imagen es auténtica o falsa (la segunda red se llama discriminador).

Después, la red generativa conoce el resultado y aprende de él. Al mismo tiempo, la red discriminadora aprende cómo mejorar su desempeño. Con cada ciclo, ambas redes mejoran.

Adelantemos, por ejemplo, un millón de ciclos de entrenamiento: la red neural generativa ha aprendido cómo generar imágenes falsas que una red neural igualmente avanzada no puede distinguir de las verdaderas.

Este método es realmente útil en los muchos usos, ya que, dependiendo de los datos preparatorios, la red generativa aprende a generar ciertos tipos de imágenes.

Por supuesto, para los deepfakes, el algoritmo se entrena con fotos reales de determinada gente, lo que da como resultado una red que puede generar un número infinito de fotos convincentes (aunque falsas) de una persona para que pueda integrarse en un vídeo. Hay métodos similares que generan audios falsos y es probable que los estafadores ya estén usando el deepfake en audios.

¿Son convincentes los deepfakes?

Los primeros vídeos de deepfake parecían ridículos, pero la tecnología ha evolucionado lo suficiente en este punto como para que dichos medios se hayan vuelto mucho más convincentes. Uno de los ejemplos más notables de un deepfake realmente convincente del 2018 fue un Barack Obama falso que hablaba de, bueno, deepfakes (además de insultar al actual presidente de los EE.UU.). A mediados del 2019, vimos un vídeo falso de Mark Zuckerberg donde se mostraba increíblemente honesto acerca del estado actual de la privacidad.

Para entender la mejora de esta tecnología, solo tienes que echar un vistazo al vídeo que te mostramos a continuación. El imitador Jim Meskimen creó este vídeo en colaboración con el artista de deepfakes Sham00k. El primero se encargó de las voces y el segundo usó los rostros de unas 20 celebridades en el vídeo mediante un software de deepfake. El resultado es realmente fascinante.

De acuerdo con lo que Sham00k señala en la descripción de su vídeo detrás de las cámaras, “la creación del vídeo completo necesitó cerca de 250 horas de trabajo, 1.200 horas de metraje, 300.000 imágenes y cerca de 1 terabyte de datos”. Dicho esto, hacer este vídeo no fue poca cosa. Pero esta desinformación tan convincente puede ejercer un impacto potencialmente profundo en los mercados o, digamos, en las elecciones, lo cual hace que el proceso parezca aterradoramente fácil y barato.

Por esa razón, como respuesta a ese y otros muchos vídeos, el estado de California prohibió los vídeos políticos de deepfake durante la época electoral. Sin embargo, han seguido surgiendo los problemas. Para empezar, los vídeos deepfake en general son una forma de expresión, como la sátira política. Y la prohibición en California no protege precisamente la libertad de expresión.

El segundo problema es al mismo tiempo técnico y práctico: ¿cómo puedes distinguir un vídeo deepfake de uno verdadero?

Cómo detectar los deepfakes

El aprendizaje automático es toda una sensación entre los científicos de todo el mundo y el problema de los deepfakes resulta tan interesante y desafiante que muchos de ellos se han apresurado a ofrecer soluciones. Por esta razón, muchos proyectos de investigación se han centrado en cómo utilizar el análisis de imagen para detectar los deepfakes.

Por ejemplo, un artículo científico publicado en junio del 2018 describe cómo el análisis del parpadeo ocular puede ayudar a detectar los vídeos deepfake. La idea es que normalmente no existen muchas fotos de una persona parpadeando, así que puede que las redes neurales no tengan el suficiente material con el que entrenarse. De hecho, cuando se publicó el artículo, la gente de los deepfakes casi no parpadeaba y, pese a que a las personas les costaba identificar la anomalía, el análisis informático ayudó.

Dos artículos publicados en noviembre del 2018 sugerían buscar artefactos de distorsión facial y posturas irregulares de la cabeza. Otro artículo, publicado en el 2019, describía una técnica sofisticada que analiza los movimientos y expresiones faciales que son características del patrón de habla de un individuo.

Sin embargo, como Miller precisa, es poco probable que esos métodos tengan éxito a largo plazo. Lo que en realidad hacen dichas investigaciones es proporcionar retroalimentación a los creadores de los deepfakes; esto les ayuda a mejorar sus redes neurales discriminadoras y, en consecuencia, pueden entrenar mejor sus redes generativas y perfeccionar aún más sus deepfakes.

El uso de las comunicaciones corporativas para reducir las amenazas del deepfake

En vista de los problemas anteriores, ninguna solución puramente tecnológica contra los deepfakes será eficaz en este momento. Pero existen otras opciones. Sobre todo, puedes reducir las amenazas mediante una comunicación eficaz. Tendrás que supervisar la información relacionada con tu empresa y estar listo para controlar la narrativa si te enfrentaras a un estallido de desinformación.

A continuación, quedan resumidas las recomendaciones de Alyssa Miller para preparar a tu empresa para hacer frente a la amenaza del deepfake, cuyos mismos métodos pueden ser útiles para gestionar también otros tipos de reveses de relacionados con las relaciones públicas:

  • Reduce al mínimo los canales de comunicación empresarial.
  • Procura tener una distribución coherente de la información.
  • Desarrolla un plan de respuesta para la desinformación (trátalas como incidentes de seguridad).
  • Coordina una función centralizada de supervisión y elaboración de informes.
  • Fomenta la verificación de hechos del sector privado y la legislación responsable.
  • Supervisa el desarrollo de medidas correctivas de detección y prevención.
Consejos