{"id":28810,"date":"2023-05-16T11:27:13","date_gmt":"2023-05-16T09:27:13","guid":{"rendered":"https:\/\/www.kaspersky.es\/blog\/?p=28810"},"modified":"2023-05-16T11:27:13","modified_gmt":"2023-05-16T09:27:13","slug":"deepfake-darknet-market","status":"publish","type":"post","link":"https:\/\/www.kaspersky.es\/blog\/deepfake-darknet-market\/28810\/","title":{"rendered":"Deepfake: \u00bfuna amenaza real?"},"content":{"rendered":"<p>El cibercrimen va adoptando r\u00e1pidamente nuevas tecnolog\u00edas y una de las tendencias m\u00e1s preocupantes es el auge del <em>deepfake<\/em>: im\u00e1genes, audios o v\u00eddeos falsos creados con la ayuda de inteligencia artificial, que los hace parecer totalmente aut\u00e9nticos, al menos a simple vista. El problema resulta cada vez m\u00e1s inquietante a medida que las herramientas para la generaci\u00f3n de IA se van generalizando y haciendo accesibles para el p\u00fablico en general. A su vez, las tecnolog\u00edas de IA se superan cada vez m\u00e1s con una impresionante sofisticaci\u00f3n en cada nueva versi\u00f3n; por ejemplo, ahora permiten la creaci\u00f3n de im\u00e1genes incre\u00edblemente realistas y audios extremadamente convincentes.<\/p>\n<p>Los <em>deepfakes<\/em> se utilizan para diversos fines, entre los que se encuentra la venganza, el fraude financiero, la manipulaci\u00f3n pol\u00edtica y el acoso. En nuestro mundo hiperconectado, los estafadores pueden recopilar f\u00e1cilmente fotograf\u00edas e incluso v\u00eddeos de posibles v\u00edctimas, sobre todo cuando se trata de personajes p\u00fablicos. No obstante, la creaci\u00f3n de <em>deepfakes<\/em> de alta calidad requiere experiencia t\u00e9cnica y un software avanzado, lo que ha dado lugar a la aparici\u00f3n de expertos y servicios clandestinos. Ahora, las personas que buscan crear im\u00e1genes y v\u00eddeos falsos recurren a especialistas, f\u00e1cilmente disponibles, como habr\u00e1s adivinado, en la <em>dark web<\/em>.<\/p>\n<p>Decidimos estudiar este mercado clandestino utilizando un m\u00e9todo de etnograf\u00eda digital; es decir, sumergi\u00e9ndonos directamente en el h\u00e1bitat online de los ciberdelincuentes: los foros de la <em>darknet<\/em>. La principal herramienta que utilizamos para analizar la <em>dark web<\/em> es nuestro servicio <a href=\"https:\/\/media.kaspersky.com\/es\/business-security\/enterprise\/kaspersky-digital-footprint-intelligence-datasheet.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Kaspersky Digital Footprint Intelligence<\/a>, que emplea t\u00e9cnicas <a href=\"https:\/\/twitter.com\/KasperskyES\/status\/1642802458312187905\" target=\"_blank\" rel=\"nofollow noopener\">OSINT<\/a> combinadas con el an\u00e1lisis automatizado y manual del <a href=\"https:\/\/es.wikipedia.org\/wiki\/Internet_superficial\" target=\"_blank\" rel=\"noopener nofollow\">internet superficial<\/a>, la <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/deep-web\/\" target=\"_blank\" rel=\"noopener\"><em>deep web<\/em><\/a> y la <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/dark-web\/\" target=\"_blank\" rel=\"noopener\"><em>dark web<\/em><\/a>, adem\u00e1s del conocimiento de nuestros expertos para proporcionar informaci\u00f3n sobre las t\u00e9cnicas e intenciones los ciberdelincuentes. Adem\u00e1s, buscamos en foros clandestinos informaci\u00f3n relacionada con la creaci\u00f3n de <em>deepfakes<\/em>. Y, para comprender el estado actual de este peligro, nos centramos en las ofertas que surgieron este a\u00f1o y recopilamos manualmente algunos de los ejemplos m\u00e1s brillantes de servicios de creaci\u00f3n de <em>deepfake<\/em>.<\/p>\n<h2>El mercado del <em>deepfake<\/em> en la Darknet: oferta y demanda<\/h2>\n<p>Nuestra investigaci\u00f3n descubri\u00f3 que existe una demanda significativa de <em>deepfakes<\/em>, que supera con creces la oferta: se necesitan personas que acepten el encargo de v\u00eddeos falsos. Esto resulta bastante preocupante, ya que, como todos sabemos, la demanda genera oferta; por lo tanto, podemos asumir que en el futuro cercano veamos un aumento significativo en los incidentes relacionados con <em>deepfakes<\/em> de alta calidad.<\/p>\n<p>Y, a juzgar por el contenido de las publicaciones en los foros de la <em>dark web<\/em>, los ciberdelincuentes buscan resultados de alta calidad. Por ello, a pesar de disponer abiertamente de herramientas de creaci\u00f3n de deepfakes, los delincuentes solo buscan creadores que puedan producir v\u00eddeos de alta calidad con un sonido perfecto y sin retrasos entre el v\u00eddeo y el audio.<\/p>\n<div id=\"attachment_28812\" style=\"width: 1264px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2023\/05\/16111514\/deepfake-darknet-market-demand.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28812\" class=\"wp-image-28812 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2023\/05\/16111514\/deepfake-darknet-market-demand.jpg\" alt=\"Publicaciones en la Darkweb en busca de alguien que pueda crear deepfakes.\" width=\"1254\" height=\"786\"><\/a><p id=\"caption-attachment-28812\" class=\"wp-caption-text\">Publicaciones en la Darkweb en busca de alguien que pueda crear deepfakes. <a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Fuente: Digital footprint intelligence<\/a><\/p><\/div>\n<p>Una gran parte de los anuncios en b\u00fasqueda de <em>deepfakes<\/em> est\u00e1 relacionada con las estafas de criptomonedas y en concreto con las <a href=\"https:\/\/www.kaspersky.es\/blog\/twitter-cryptocurrency-scams\/17321\/\" target=\"_blank\" rel=\"noopener\">estafas de obsequios de criptomonedas<\/a>, pero en ocasiones nos hemos encontrado con anuncios m\u00e1s peculiares. Por ejemplo, una publicaci\u00f3n que buscaba un profesional que pudiera crear un v\u00eddeo <em>deepfake<\/em> de alta calidad que pudiera usarse para eludir el sistema de verificaci\u00f3n de reconocimiento facial de Binance. Por lo tanto, los ciberdelincuentes intentan usar deepfakes para eludir los sistemas de seguridad biom\u00e9tricos y acceder a las cuentas de las v\u00edctimas para robar dinero directamente.<\/p>\n<p>En cuanto al suministro, el coste de la creaci\u00f3n o la compra de <em>deepfakes<\/em> listos para usar var\u00eda seg\u00fan la complejidad del proyecto en cuesti\u00f3n y la calidad del producto final. La notoriedad del objeto suplantado tambi\u00e9n puede influir en el precio (generalmente celebridades o figuras pol\u00edticas). El precio por minuto del v\u00eddeo <em>deepfake<\/em> puede oscilar entre 300 y 20000 d\u00f3lares. Si el comprador est\u00e1 dispuesto a pagar, los creadores pueden ofrecer v\u00eddeos incre\u00edblemente realistas capaces de transmitir emociones aut\u00e9nticas, haci\u00e9ndolos indistinguibles de las im\u00e1genes genuinas. Estos son algunos de los ejemplos m\u00e1s brillantes que prometimos anteriormente.<\/p>\n<h3>La suplantaci\u00f3n de Vitalik Buterin<\/h3>\n<p>Descubrimos un proveedor que ofrec\u00eda un servicio premium para crear un <em>deepfake<\/em> de alta calidad del cofundador de Ethereum, Vitaly Buterin, completo con voz y v\u00eddeo totalmente sintetizados. Dejamos claro que la producci\u00f3n no implicara simplemente el doblaje de v\u00eddeos existentes, sino m\u00e1s bien un servicio de producci\u00f3n completo, a lo que el proveedor respondi\u00f3 \u201cVitalik est\u00e1 listo para cualquiera de tus fantas\u00edas\u201d. El tiempo estimado de producci\u00f3n de un v\u00eddeo en este servicio era de menos de dos semanas, siendo el producto final un v\u00eddeo en ingl\u00e9s con un precio de 20000 d\u00f3lares por minuto.<\/p>\n<div id=\"attachment_28813\" style=\"width: 1086px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2023\/05\/16112025\/deepfake-darknet-market-buterin.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28813\" class=\"wp-image-28813 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2023\/05\/16112025\/deepfake-darknet-market-buterin.jpg\" alt=\"Oferta en la Darkweb: un deepfake de Vitalik Buterin.\" width=\"1076\" height=\"483\"><\/a><p id=\"caption-attachment-28813\" class=\"wp-caption-text\">Oferta en la Darkweb: un deepfake de Vitalik Buterin. <a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Fuente: Digital footprint intelligence<\/a><\/p><\/div>\n<h3>El fraude de criptomonedas<\/h3>\n<p>Otro proveedor se jacta de poder hacer <em>deepfakes<\/em> de la m\u00e1s alta calidad para el fraude de criptomonedas. Su servicio incluye la creaci\u00f3n de \u201cCryptostreams\u201d u \u201cobsequio de criptomonedas\u201d, una estafa popular en la que los estafadores recopilan criptomonedas mediante la transmisi\u00f3n de programas de regalos falsos de criptomonedas, con la promesa de duplicar cualquier pago de criptomonedas que se les env\u00ede. Para crear estos deepfakes, los estafadores suelen usar im\u00e1genes de celebridades para lanzar retransmisiones en vivo falsas en las plataformas de redes sociales. El proveedor incluso muestra una p\u00e1gina en la que se pide a las v\u00edctimas que transfieran entre 2500 y un mill\u00f3n de XRP con la promesa de duplicar su pago. Como resultado, la v\u00edctima puede perder de entre 1000 a 460000 d\u00f3lares.<\/p>\n<div id=\"attachment_28814\" style=\"width: 1253px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28814\" class=\"wp-image-28814 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2023\/05\/16112155\/deepfake-darknet-market-crypto.jpg\" alt=\"Oferta en la Darkweb: v\u00eddeos deepfake para cryptostreams.\" width=\"1243\" height=\"1142\"><p id=\"caption-attachment-28814\" class=\"wp-caption-text\">Oferta en la Darkweb: v\u00eddeos deepfake para cryptostreams. <a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Fuente: Digital footprint intelligence<\/a><\/p><\/div>\n<h3>Los v\u00eddeos porno falsos<\/h3>\n<p>Otra rama de la industria de producci\u00f3n de <em>deepfakes<\/em> es la creaci\u00f3n de pornograf\u00eda falsa. Por lo general, la pornograf\u00eda falsa son solo v\u00eddeos porno normales en lo que se intercambian las caras; los motivos var\u00edan: a veces solo por entretenimiento, pero tambi\u00e9n pueden usarse para prop\u00f3sitos mucho m\u00e1s siniestros como el acoso online, el ciberacoso o el chantaje.<\/p>\n<p>Adem\u00e1s, algunos creadores de deepfakes est\u00e1n creando tutoriales para estos v\u00eddeos, con consejos sobre c\u00f3mo seleccionar el material de origen y c\u00f3mo intercambiar las caras para generar una falsificaci\u00f3n convincente.<\/p>\n<div id=\"attachment_28815\" style=\"width: 2214px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28815\" class=\"wp-image-28815 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2023\/05\/16112255\/deepfake-darknet-market-porn.jpg\" alt=\"Publicaci\u00f3n en la Darkweb con un tutorial sobre la creaci\u00f3n de pornograf\u00eda deepfake.\" width=\"2204\" height=\"626\"><p id=\"caption-attachment-28815\" class=\"wp-caption-text\">Publicaci\u00f3n en la Darkweb con un tutorial sobre la creaci\u00f3n de pornograf\u00eda deepfake. <a href=\"https:\/\/tip.kaspersky.com\/Help\/Doc_data\/en-US\/DigitalFootprint.htm\" target=\"_blank\" rel=\"noopener nofollow\">Fuente: Digital footprint intelligence<\/a><\/p><\/div>\n<h2>Posibles consecuencias<\/h2>\n<p>El uso de <em>deepfakes<\/em> con fines delictivos puede afectar a nuestras vidas de muchas formas distintas, dado que representa una grave amenaza para las personas, las organizaciones y la sociedad en su conjunto. Adem\u00e1s, el hecho de que cualquier historia o art\u00edculo de Internet pueda ser un <em>deepfake<\/em> genera desconfianza hacia cualquier informaci\u00f3n disponible p\u00fablicamente, lo que provoca paranoia e inseguridad. Algunas de las posibles consecuencias del uso del <em>deepfake<\/em> son:<\/p>\n<h3>La desinformaci\u00f3n<\/h3>\n<p>Los <em>deepfakes<\/em> se pueden utilizar para la difusi\u00f3n masiva de informaci\u00f3n falsa y la manipulaci\u00f3n de la opini\u00f3n p\u00fablica. Adem\u00e1s de para la creaci\u00f3n de noticias falsas, la propaganda pol\u00edtica o la publicidad enga\u00f1osa, lo que puede generar graves consecuencias en la confianza p\u00fablica.<\/p>\n<p><em>Ejemplos: uno de los casos m\u00e1s inofensivos del uso de <\/em>deepfake<em> fue la historia de un reportaje de evidencia fotogr\u00e1fica superrealista del terremoto de Cascadia que <\/em><a href=\"https:\/\/www.forbes.com\/sites\/mattnovak\/2023\/03\/27\/ai-creates-photo-evidence-of-2001-earthquake-that-never-happened\/?sh=40c295b13985\" target=\"_blank\" rel=\"nofollow noopener\"><em>circul\u00f3<\/em><\/a><em> por la web, un evento que ni siquiera tuvo lugar. Pero hubo un caso mucho m\u00e1s peligroso, curiosamente, no del uso de deepfake en s\u00ed, sino de la mera sospecha de que se hubiera utilizado un deepfake, en Gab\u00f3n en 2018. Por aquel entonces corr\u00eda el rumor de que el presidente de Gab\u00f3n, Ali Bongo, hab\u00eda enfermado gravemente. Como respuesta, el gobierno <\/em><a href=\"https:\/\/www.washingtonpost.com\/politics\/2020\/02\/13\/how-sick-president-suspect-video-helped-sparked-an-attempted-coup-gabon\/\" target=\"_blank\" rel=\"nofollow noopener\"><em>public\u00f3<\/em><\/a><em> un v\u00eddeo que se sospechaba que era un deepfake, lo que provoc\u00f3 m\u00e1s tensi\u00f3n y aviv\u00f3 las sospechas de que el gobierno estaba ocultando algo. Esta creencia generalizada fue una de las razones de un intento de golpe de estado una semana despu\u00e9s.<\/em><\/p>\n<h3>El fraude cibern\u00e9tico<\/h3>\n<p>Los <em>deepfakes<\/em> se utilizan para todo tipo de fraude cibern\u00e9tico, desde las estafas de regalo de criptomonedas mencionadas anteriormente, hasta aquellas que terminan con ataques dirigidos a empresas.<\/p>\n<p><em>Ejemplos: el <\/em><a href=\"https:\/\/decrypt.co\/101365\/deepfake-video-elon-musk-crypto-scam-goes-viral\" target=\"_blank\" rel=\"nofollow noopener\"><em>v\u00eddeo<\/em><\/a><em> de Elon Musk creado artificialmente en el que promet\u00eda altos rendimientos de una dudosa estrategia de inversi\u00f3n en criptomonedas que se hizo viral el a\u00f1o pasado y que llev\u00f3 a los usuarios a perder todo su dinero. En el 2019, los estafadores <\/em><a href=\"https:\/\/www.forbes.com\/sites\/jessedamiani\/2019\/09\/03\/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000\/?sh=fc57de224165\" target=\"_blank\" rel=\"nofollow noopener\"><em>crearon<\/em><\/a><em> una convincente falsificaci\u00f3n de audio de la voz del director ejecutivo de una importante empresa energ\u00e9tica del Reino Unido con la que enga\u00f1aron a un alto ejecutivo de la empresa para que transfiriera 220000 euros (243000 d\u00f3lares) a un proveedor h\u00fangaro. El ejecutivo crey\u00f3 que estaba siguiendo las instrucciones del CEO, pero en realidad la grabaci\u00f3n era falsa.<\/em><\/p>\n<h3>Los da\u00f1os a la reputaci\u00f3n y las violaciones de privacidad<\/h3>\n<p>Los <em>deepfakes<\/em> se pueden utilizar para da\u00f1ar la reputaci\u00f3n de personas u organizaciones. Por ejemplo, se puede crear un v\u00eddeo falso para mostrar a alguien participando en actividades ilegales o inmorales. Esto puede provocar da\u00f1os a la reputaci\u00f3n o da\u00f1os personales.<\/p>\n<p><em>Ejemplo: los <\/em><a href=\"https:\/\/www.washingtonpost.com\/technology\/2018\/12\/31\/scarlett-johansson-fake-ai-generated-sex-videos-nothing-can-stop-someone-cutting-pasting-my-image\/\" target=\"_blank\" rel=\"nofollow noopener\"><em>v\u00eddeos<\/em><\/a><em> deepfakes que aparecieron online de la actriz Scarlett Johansson mostrando su rostro superpuesto a los cuerpos de actrices porno en escenas expl\u00edcitas. De hecho, se trataba de un deepfake creado con fotos privadas filtradas a principios del 2011. Su representante lo calific\u00f3 como una \u201cviolaci\u00f3n grave\u201d de sus derechos y afirm\u00f3 estar explorando acciones legales para eliminarlos. El incidente mencionado anteriormente con el CEO de la empresa energ\u00e9tica tambi\u00e9n provoc\u00f3 una importante p\u00e9rdida de reputaci\u00f3n debido al hecho de que el empleado fue enga\u00f1ado para que transfiriera esos fondos. A medida que se difundi\u00f3 la noticia de la estafa, los clientes de la empresa expresaron su preocupaci\u00f3n sobre la capacidad de las empresas para brindar la seguridad de sus datos y la informaci\u00f3n financiera.<\/em><\/p>\n<h3>El robo de identidad<\/h3>\n<p>Ya hemos mencionado un anuncio de la Darkweb que busca medios para eludir la autenticaci\u00f3n biom\u00e9trica. No todos los servicios tienen un sistema de verificaci\u00f3n de reconocimiento facial, pero el <em>deepfake<\/em> puede ayudar incluso con los servicios comunes de atenci\u00f3n al cliente. As\u00ed es como podr\u00eda funcionar: primero, el ciberdelincuente obtendr\u00eda informaci\u00f3n personal del propietario de la cuenta de destino: su nombre, direcci\u00f3n, n\u00famero de tel\u00e9fono, etc. Luego se pondr\u00eda en contacto con el proveedor de servicios de pago y afirmar\u00eda ser el propietario que ha perdido el acceso a su cuenta o que est\u00e1 experimentando dificultades t\u00e9cnicas. Para comprobar la identidad, el proveedor de servicios de pago puede solicitar una grabaci\u00f3n de v\u00eddeo o audio del titular de la cuenta realizando una acci\u00f3n espec\u00edfica. Usando los datos recopilados, los delincuentes pueden crear un v\u00eddeo o audio falso que se haga pasar por el propietario real de la cuenta que realiza la acci\u00f3n solicitada. Como resultado, el proveedor podr\u00eda caer en la trampa y conceder acceso a la cuenta y a los fondos asociados.<\/p>\n<h2>C\u00f3mo mantenerte a salvo<\/h2>\n<p>El consejo m\u00e1s obvio, aunque deprimente, es \u201cno confiar nunca en tus ojos u o\u00eddos\u201d. Sin embargo, todav\u00eda hay esperanza. Las mismas tecnolog\u00edas de inteligencia artificial que est\u00e1n ayudando a crear <em>deepfakes<\/em> se pueden usar para distinguir v\u00eddeos, im\u00e1genes y audio aut\u00e9nticos de las falsificaciones. Adem\u00e1s, estas herramientas est\u00e1n emergiendo lentamente en el mercado. Esperamos que en el futuro m\u00e1s cercano los medios de comunicaci\u00f3n, mensajeros y puede que incluso los navegadores est\u00e9n equipados con estas tecnolog\u00edas.<\/p>\n<p>En cuanto a las empresas, tenemos algunos consejos m\u00e1s pr\u00e1cticos: puedes predecir, hasta cierto punto, ciertos ataques <em>deepfake<\/em> contra tu personal y\/o clientes sabiendo c\u00f3mo pueden afectarte las actividades cibercriminales en la dark web con la ayuda de nuestro <a href=\"https:\/\/www.kaspersky.es\/enterprise-security\/threat-intelligence?icid=es_kdailyplacehold_acq_ona_smm__onl_b2b_kasperskydaily_wpplaceholder_______\" target=\"_blank\" rel=\"noopener\">Kaspersky Digital Footprint Intelligence<\/a>. Entre otras muchas cosas, podr\u00e1s recibir informaci\u00f3n casi en tiempo real sobre eventos de seguridad global que amenazan espec\u00edficamente tus activos, as\u00ed como rastrear datos confidenciales expuestos en foros y comunidades clandestinas restringidas. Para m\u00e1s informaci\u00f3n sobre este servicio, visita su <a href=\"https:\/\/media.kaspersky.com\/es\/business-security\/enterprise\/kaspersky-digital-footprint-intelligence-datasheet.pdf\" target=\"_blank\" rel=\"noopener nofollow\">p\u00e1gina<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Te ayudamos a comprender la mec\u00e1nica de la industria de los deepfakes en la darknet.<\/p>\n","protected":false},"author":2706,"featured_media":28811,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1348,2202,2754],"tags":[3552,3064,614],"class_list":{"0":"post-28810","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-business","9":"category-enterprise","10":"tag-deepfake","11":"tag-deepfakes","12":"tag-ingenieria-social"},"hreflang":[{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/deepfake-darknet-market\/28810\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/deepfake-darknet-market\/25663\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/deepfake-darknet-market\/21081\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/deepfake-darknet-market\/28308\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/deepfake-darknet-market\/25961\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/deepfake-darknet-market\/26322\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/deepfake-darknet-market\/48112\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/deepfake-darknet-market\/20571\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/deepfake-darknet-market\/21257\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/deepfake-darknet-market\/30145\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/deepfake-darknet-market\/33924\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/deepfake-darknet-market\/31969\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/deepfake-darknet-market\/31658\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.es\/blog\/tag\/deepfakes\/","name":"deepfakes"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/28810","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/users\/2706"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/comments?post=28810"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/28810\/revisions"}],"predecessor-version":[{"id":28816,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/28810\/revisions\/28816"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media\/28811"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media?parent=28810"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/categories?post=28810"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/tags?post=28810"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}