{"id":22090,"date":"2020-03-17T11:52:52","date_gmt":"2020-03-17T09:52:52","guid":{"rendered":"https:\/\/www.kaspersky.es\/blog\/?p=22090"},"modified":"2020-03-17T11:52:52","modified_gmt":"2020-03-17T09:52:52","slug":"rsa2020-deepfakes-mitigation","status":"publish","type":"post","link":"https:\/\/www.kaspersky.es\/blog\/rsa2020-deepfakes-mitigation\/22090\/","title":{"rendered":"C\u00f3mo reducir el impacto de los deepfakes"},"content":{"rendered":"<p>Los <em>deepfakes<\/em> son un desafortunado producto de los recientes desarrollos en el campo de la inteligencia artificial. Las noticias falsas generadas por los algoritmos de aprendizaje autom\u00e1tico han ganado repercusi\u00f3n en los \u00faltimos a\u00f1os. La charla de Alyssa Miller en la conferencia RSA del 2020, titulada <a href=\"https:\/\/published-prd.lanyonevents.com\/published\/rsaus20\/sessionsFiles\/17299\/2020_USA20_SBX1-W5_01_Losing-Our-Reality-How-Deepfakes-Threaten-Businesses-and-Global-Markets.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Hemos perdido la realidad<\/a>, proporciona algunas reflexiones sobre por qu\u00e9 ha llegado el momento de considerar los <em>deepfakes<\/em> como una amenaza (a parte del a\u00f1o electoral) y qu\u00e9 puede hacer tu empresa para reducir su impacto si se viera atacada de este modo.<\/p>\n<h2>C\u00f3mo se generan en los <em>deepfakes<\/em><\/h2>\n<p>El m\u00e9todo m\u00e1s com\u00fan para crear un <em>deepfake<\/em> es utilizar un sistema llamado GAN, o red generativa antag\u00f3nica. Los GAN se componen de dos redes neurales que antagonizan entre ellas. Con el fin de prepararlas, ambas redes se entrenan con im\u00e1genes verdaderas. Luego viene la parte antag\u00f3nica, en la que una red genera im\u00e1genes (de ah\u00ed el nombre <em>generador<\/em>) y la otra intenta determinar si la imagen es aut\u00e9ntica o falsa (la segunda red se llama <em>discriminador<\/em>).<\/p>\n<p>Despu\u00e9s, la red generativa conoce el resultado y aprende de \u00e9l. Al mismo tiempo, la red discriminadora aprende c\u00f3mo mejorar su desempe\u00f1o. Con cada ciclo, ambas redes mejoran.<\/p>\n<p>Adelantemos, por ejemplo, un mill\u00f3n de ciclos de entrenamiento: la red neural generativa ha aprendido c\u00f3mo generar im\u00e1genes falsas que una red neural igualmente avanzada no puede distinguir de las verdaderas.<\/p>\n<p>Este m\u00e9todo es realmente \u00fatil en los muchos usos, ya que, dependiendo de los datos preparatorios, la red generativa aprende a generar ciertos tipos de im\u00e1genes.<\/p>\n<p>Por supuesto, para los <em>deepfakes<\/em>, el algoritmo se entrena con fotos reales de determinada gente, lo que da como resultado una red que puede generar un n\u00famero infinito de fotos convincentes (aunque falsas) de una persona para que pueda integrarse en un v\u00eddeo. Hay m\u00e9todos similares que generan audios falsos y es probable que <a href=\"https:\/\/www.kaspersky.es\/blog\/machine-learning-fake-voice\/19418\/\" target=\"_blank\" rel=\"noopener\">los estafadores ya est\u00e9n usando el <em>deepfake<\/em><\/a>\u00a0en audios.<\/p>\n<h2>\u00bfSon convincentes los <em>deepfakes<\/em>?<\/h2>\n<p>Los primeros v\u00eddeos de <em>deepfake<\/em> parec\u00edan rid\u00edculos, pero la tecnolog\u00eda ha evolucionado lo suficiente en este punto como para que dichos medios se hayan vuelto mucho m\u00e1s convincentes. Uno de los ejemplos m\u00e1s notables de un <em>deepfake<\/em> realmente convincente del 2018 fue un <a href=\"https:\/\/www.youtube.com\/watch?v=cQ54GDm1eL0\" target=\"_blank\" rel=\"noopener nofollow\">Barack Obama<\/a> falso que hablaba de, bueno, <em>deepfakes<\/em> (adem\u00e1s de insultar al actual presidente de los EE.UU.). A mediados del 2019, vimos <a href=\"https:\/\/www.instagram.com\/p\/ByaVigGFP2U\/\" target=\"_blank\" rel=\"noopener nofollow\">un v\u00eddeo falso de Mark Zuckerberg<\/a> donde se mostraba incre\u00edblemente honesto acerca del estado actual de la privacidad.<\/p>\n<p>Para entender la mejora de esta tecnolog\u00eda, solo tienes que echar un vistazo al v\u00eddeo que te mostramos a continuaci\u00f3n. El imitador Jim Meskimen cre\u00f3 este v\u00eddeo en colaboraci\u00f3n con el artista de <em>deepfakes<\/em> Sham00k. El primero se encarg\u00f3 de las voces y el segundo <a href=\"https:\/\/www.engadget.com\/2019\/10\/11\/deepfake-celebrity-impresonations\/\" target=\"_blank\" rel=\"noopener nofollow\">us\u00f3 los rostros de unas 20 celebridades en el v\u00eddeo<\/a> mediante un <em>software<\/em> de <em>deepfake<\/em>. El resultado es realmente fascinante.<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/5rPKeUXjEvE?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p>De acuerdo con lo que Sham00k se\u00f1ala en la descripci\u00f3n de su v\u00eddeo detr\u00e1s de las c\u00e1maras, \u201cla creaci\u00f3n del v\u00eddeo completo necesit\u00f3 cerca de 250 horas de trabajo, 1.200 horas de metraje, 300.000 im\u00e1genes y cerca de 1 terabyte de datos\u201d. Dicho esto, hacer este v\u00eddeo no fue poca cosa. Pero esta desinformaci\u00f3n tan convincente puede ejercer un impacto potencialmente profundo en los mercados o, digamos, en las elecciones, lo cual hace que el proceso parezca aterradoramente f\u00e1cil y barato.<\/p>\n<p>Por esa raz\u00f3n, como respuesta a ese y otros muchos v\u00eddeos, <a href=\"https:\/\/www.theverge.com\/2019\/10\/7\/20902884\/california-deepfake-political-ban-election-2020\" target=\"_blank\" rel=\"noopener nofollow\">el estado de California prohibi\u00f3 los v\u00eddeos pol\u00edticos de <em>deepfake<\/em> durante la \u00e9poca electoral<\/a>. Sin embargo, han seguido surgiendo los problemas. Para empezar, los v\u00eddeos <em>deepfake<\/em> en general son una forma de expresi\u00f3n, como la s\u00e1tira pol\u00edtica. Y la prohibici\u00f3n en California no protege precisamente la libertad de expresi\u00f3n.<\/p>\n<p>El segundo problema es al mismo tiempo t\u00e9cnico y pr\u00e1ctico: \u00bfc\u00f3mo puedes distinguir un v\u00eddeo <em>deepfake<\/em> de uno verdadero?<\/p>\n<h2>C\u00f3mo detectar los <em>deepfakes<\/em><\/h2>\n<p>El aprendizaje autom\u00e1tico es toda una sensaci\u00f3n entre los cient\u00edficos de todo el mundo y el problema de los <em>deepfakes<\/em> resulta tan interesante y desafiante que muchos de ellos se han apresurado a ofrecer soluciones. Por esta raz\u00f3n, muchos proyectos de investigaci\u00f3n se han centrado en c\u00f3mo utilizar el an\u00e1lisis de imagen para detectar los <em>deepfakes<\/em>.<\/p>\n<p>Por ejemplo, un art\u00edculo cient\u00edfico publicado en junio del 2018 describe c\u00f3mo <a href=\"https:\/\/arxiv.org\/pdf\/1806.02877.pdf\" target=\"_blank\" rel=\"noopener nofollow\">el an\u00e1lisis del parpadeo ocular<\/a> puede ayudar a detectar los v\u00eddeos <em>deepfake<\/em>. La idea es que normalmente no existen muchas fotos de una persona parpadeando, as\u00ed que puede que las redes neurales no tengan el suficiente material con el que entrenarse. De hecho, cuando se public\u00f3 el art\u00edculo, la gente de los <em>deepfakes<\/em> casi no parpadeaba y, pese a que a las personas les costaba identificar la anomal\u00eda, el an\u00e1lisis inform\u00e1tico ayud\u00f3.<\/p>\n<p>Dos art\u00edculos publicados en noviembre del 2018 suger\u00edan <a href=\"https:\/\/arxiv.org\/abs\/1811.00656\" target=\"_blank\" rel=\"noopener nofollow\">buscar artefactos de distorsi\u00f3n facial<\/a> y posturas irregulares de la cabeza. Otro art\u00edculo, publicado en el 2019, describ\u00eda una t\u00e9cnica sofisticada que <a href=\"http:\/\/openaccess.thecvf.com\/content_CVPRW_2019\/papers\/Media%252520Forensics\/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf\" target=\"_blank\" rel=\"noopener nofollow\">analiza los movimientos y expresiones faciales<\/a> que son caracter\u00edsticas del patr\u00f3n de habla de un individuo.<\/p>\n<p>Sin embargo, como Miller precisa, es poco probable que esos m\u00e9todos tengan \u00e9xito a largo plazo. Lo que en realidad hacen dichas investigaciones es proporcionar retroalimentaci\u00f3n a los creadores de los <em>deepfakes<\/em>; esto les ayuda a mejorar sus redes neurales discriminadoras y, en consecuencia, pueden entrenar mejor sus redes generativas y perfeccionar a\u00fan m\u00e1s sus <em>deepfakes<\/em>.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"kesb\">\n<h2>El uso de las comunicaciones corporativas para reducir las amenazas del <em>deepfake<\/em><\/h2>\n<p>En vista de los problemas anteriores, ninguna soluci\u00f3n puramente tecnol\u00f3gica contra los <em>deepfakes<\/em> ser\u00e1 eficaz en este momento. Pero existen otras opciones. Sobre todo, puedes reducir las amenazas mediante una comunicaci\u00f3n eficaz. Tendr\u00e1s que supervisar la informaci\u00f3n relacionada con tu empresa y estar listo para controlar la narrativa si te enfrentaras a un estallido de desinformaci\u00f3n.<\/p>\n<p>A continuaci\u00f3n, quedan resumidas las recomendaciones de Alyssa Miller para preparar a tu empresa para hacer frente a la amenaza del <em>deepfake<\/em>, cuyos mismos m\u00e9todos pueden ser \u00fatiles para gestionar tambi\u00e9n otros tipos de reveses de relacionados con las relaciones p\u00fablicas:<\/p>\n<ul>\n<li>Reduce al m\u00ednimo los canales de comunicaci\u00f3n empresarial.<\/li>\n<li>Procura tener una distribuci\u00f3n coherente de la informaci\u00f3n.<\/li>\n<li>Desarrolla un plan de respuesta para la desinformaci\u00f3n (tr\u00e1talas como <a href=\"https:\/\/www.kaspersky.com\/enterprise-security\/cyber-incident-response-communication\" target=\"_blank\" rel=\"noopener nofollow\">incidentes de seguridad<\/a>).<\/li>\n<li>Coordina una funci\u00f3n centralizada de supervisi\u00f3n y elaboraci\u00f3n de informes.<\/li>\n<li>Fomenta la verificaci\u00f3n de hechos del sector privado y la legislaci\u00f3n responsable.<\/li>\n<li>Supervisa el desarrollo de medidas correctivas de detecci\u00f3n y prevenci\u00f3n.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Ya que los deepfakes son cada vez m\u00e1s comunes y convincentes, \u00bfc\u00f3mo puedes proteger tu negocio? <\/p>\n","protected":false},"author":421,"featured_media":22094,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2202,2754,2755],"tags":[2093,260,3064,1307,1305,3056,1225,1236],"class_list":{"0":"post-22090","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-business","8":"category-enterprise","9":"category-smb","10":"tag-aprendizaje-automatico","11":"tag-conferencia-rsa","12":"tag-deepfakes","13":"tag-ia","14":"tag-inteligencia-artificial","15":"tag-rsa2020","16":"tag-rsac","17":"tag-tecnologias"},"hreflang":[{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/rsa2020-deepfakes-mitigation\/22090\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/rsa2020-deepfakes-mitigation\/19524\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/16101\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/8034\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/21133\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/rsa2020-deepfakes-mitigation\/19395\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/17902\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/rsa2020-deepfakes-mitigation\/20885\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/rsa2020-deepfakes-mitigation\/27678\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/rsa2020-deepfakes-mitigation\/7900\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/34006\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/rsa2020-deepfakes-mitigation\/13176\/"},{"hreflang":"zh","url":"https:\/\/www.kaspersky.com.cn\/blog\/rsa2020-deepfakes-mitigation\/11237\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/rsa2020-deepfakes-mitigation\/25139\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/rsa2020-deepfakes-mitigation\/21880\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/rsa2020-deepfakes-mitigation\/27014\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/rsa2020-deepfakes-mitigation\/26853\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.es\/blog\/tag\/rsac\/","name":"RSAC"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/22090","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/users\/421"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/comments?post=22090"}],"version-history":[{"count":6,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/22090\/revisions"}],"predecessor-version":[{"id":22101,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/22090\/revisions\/22101"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media\/22094"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media?parent=22090"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/categories?post=22090"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/tags?post=22090"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}