{"id":29956,"date":"2024-04-15T12:05:56","date_gmt":"2024-04-15T10:05:56","guid":{"rendered":"https:\/\/www.kaspersky.es\/blog\/?p=29956"},"modified":"2024-04-15T12:05:56","modified_gmt":"2024-04-15T10:05:56","slug":"real-or-fake-image-analysis-and-provenance","status":"publish","type":"post","link":"https:\/\/www.kaspersky.es\/blog\/real-or-fake-image-analysis-and-provenance\/29956\/","title":{"rendered":"C\u00f3mo verificar la autenticidad y el origen de fotograf\u00edas y v\u00eddeos"},"content":{"rendered":"<p>Durante los \u00faltimos 18 meses, m\u00e1s o menos, parece que hemos perdido la capacidad de confiar en nuestros ojos. Las falsificaciones de Photoshop no son nada nuevo, por supuesto, pero la llegada de la inteligencia artificial (IA) generativa ha llevado la falsificaci\u00f3n a un nivel completamente nuevo. Quiz\u00e1s la primera falsificaci\u00f3n de IA viral fue la imagen del Papa en 2023 con una chaqueta acolchada blanca de dise\u00f1o, pero, desde entonces, el n\u00famero de enga\u00f1os visuales de alta calidad se ha disparado a muchos miles. Y, a medida que la IA se desarrolle a\u00fan m\u00e1s, podemos esperar m\u00e1s y m\u00e1s v\u00eddeos falsos convincentes en un futuro muy cercano.<\/p>\n<div id=\"attachment_29958\" style=\"width: 416px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115031\/real-or-fake-image-analysis-and-provenance-01.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29958\" class=\"wp-image-29958 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115031\/real-or-fake-image-analysis-and-provenance-01.jpg\" alt=\"Uno de los primeros deepfakes en hacerse viral en todo el mundo: el Papa luciendo una moderna chaqueta acolchada blanca\" width=\"406\" height=\"500\"><\/a><p id=\"caption-attachment-29958\" class=\"wp-caption-text\">Uno de los primeros deepfakes en hacerse viral en todo el mundo: el Papa luciendo una moderna chaqueta acolchada blanca<\/p><\/div>\n<p>Esto solo exacerbar\u00e1 el ya complicado problema de las noticias falsas y las im\u00e1genes que las acompa\u00f1an. Pueden publicar una foto de un evento y afirmar que es de otro, poner a personas que nunca se han conocido en la misma fotograf\u00eda, entre otras cosas.<\/p>\n<p>La falsificaci\u00f3n de im\u00e1genes y v\u00eddeos tiene una relaci\u00f3n directa con la ciberseguridad. Los estafadores han estado utilizando im\u00e1genes y v\u00eddeos falsos para enga\u00f1ar a las v\u00edctimas y lograr que desembolsen su dinero durante a\u00f1os. Es posible que te env\u00eden una fotograf\u00eda de un cachorro triste que, seg\u00fan dicen, necesita ayuda, una imagen de una celebridad que promueve <a href=\"https:\/\/www.kaspersky.es\/blog\/online-investment-dangerous-apps\/29557\/\" target=\"_blank\" rel=\"nofollow noopener\">algunos planes sospechosos<\/a> o, incluso, una fotograf\u00eda de una tarjeta de cr\u00e9dito que dicen que pertenece a alguien que t\u00fa conoces. Los estafadores tambi\u00e9n utilizan <a href=\"https:\/\/www.kaspersky.es\/blog\/pig-butchering-crypto-investment-scam\/29780\/\" target=\"_blank\" rel=\"nofollow noopener\">im\u00e1genes generadas por IA para los perfiles falsos<\/a> en sitios de citas y redes sociales.<\/p>\n<p>Las estafas m\u00e1s sofisticadas hacen uso de <a href=\"https:\/\/www.kaspersky.es\/blog\/how-to-spot-and-prevent-boss-scams\/29819\/\" target=\"_blank\" rel=\"nofollow noopener\">v\u00eddeos y audios falsos del jefe de la v\u00edctima<\/a> o de un familiar para que cumplan con las peticiones de los estafadores. Recientemente, un empleado de una instituci\u00f3n financiera fue enga\u00f1ado para que <a href=\"https:\/\/edition.cnn.com\/2024\/02\/04\/asia\/deepfake-cfo-scam-hong-kong-intl-hnk\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">transfiriera 25\u00a0millones de d\u00f3lares<\/a> a ciberdelincuentes. Hab\u00edan pactado una videollamada con el \u201cdirector financiero\u201d y los \u201ccolegas\u201d de la v\u00edctima, todos deepfakes.<\/p>\n<p>Entonces, \u00bfqu\u00e9 se puede hacer para lidiar con los deepfakes o con las falsificaciones cl\u00e1sicas? \u00bfC\u00f3mo se pueden detectar? Este es un problema extremadamente complejo, pero que se puede mitigar paso a paso, rastreando la <strong>procedencia<\/strong> de la imagen.<\/p>\n<h2>Espera\u2026 \u00bfno lo hab\u00eda visto antes?<\/h2>\n<p>Como se mencion\u00f3 anteriormente, existen diferentes tipos de \u201cfalsificaciones\u201d. A veces, la imagen en s\u00ed no es falsa, pero se usa de manera enga\u00f1osa. Tal vez una fotograf\u00eda real de una zona de guerra se hace pasar como si fuera de otro conflicto, o una escena de una pel\u00edcula se presenta como metraje documental. En estos casos, buscar anomal\u00edas en la imagen en s\u00ed no ayudar\u00e1 mucho, pero puedes intentar buscar copias de la fotograf\u00eda en l\u00ednea. Afortunadamente, tenemos herramientas como la <a href=\"https:\/\/support.google.com\/websearch\/answer\/1325808?hl=es&amp;sjid=11799196324277800924-EU\" target=\"_blank\" rel=\"nofollow noopener\">b\u00fasqueda inversa de im\u00e1genes en Google<\/a> y <a href=\"https:\/\/tineye.com\/\" target=\"_blank\" rel=\"nofollow noopener\">TinEye<\/a>, que pueden ayudarnos a hacer precisamente eso.<\/p>\n<p>Si tienes alguna duda sobre una imagen, simplemente c\u00e1rgala en una de estas herramientas y mira los resultados. Es posible que descubras que la misma fotograf\u00eda de una familia que se qued\u00f3 sin hogar por el fuego, o un grupo de perros en un refugio, o las v\u00edctimas de alguna otra tragedia, ha estado circulando en l\u00ednea durante a\u00f1os. Por cierto, cuando se trata de una recaudaci\u00f3n de fondos falsa, hay algunas otras <a href=\"https:\/\/www.kaspersky.es\/blog\/fake-charity-scam\/19248\/\" target=\"_blank\" rel=\"nofollow noopener\">se\u00f1ales<\/a> de alerta a tener en cuenta adem\u00e1s de las im\u00e1genes en s\u00ed.<\/p>\n<div id=\"attachment_29959\" style=\"width: 1506px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115244\/real-or-fake-image-analysis-and-provenance-02.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29959\" class=\"wp-image-29959 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115244\/real-or-fake-image-analysis-and-provenance-02.jpg\" alt=\"\u00bfPerro de un refugio? No, de un stock de fotograf\u00edas\" width=\"1496\" height=\"903\"><\/a><p id=\"caption-attachment-29959\" class=\"wp-caption-text\">\u00bfPerro de un refugio? No, de un stock de fotograf\u00edas<\/p><\/div>\n<h2>\u00bfSe us\u00f3 Photoshop? Pronto lo sabremos.<\/h2>\n<p>Dado que la edici\u00f3n en Photoshop existe desde hace un tiempo, los matem\u00e1ticos, los ingenieros y los expertos en im\u00e1genes han estado trabajando durante mucho tiempo en formas para detectar im\u00e1genes alteradas autom\u00e1ticamente. Algunos m\u00e9todos populares incluyen el an\u00e1lisis de metadatos de im\u00e1genes y el <a href=\"https:\/\/en.wikipedia.org\/wiki\/Error_level_analysis\" target=\"_blank\" rel=\"nofollow noopener\">an\u00e1lisis de nivel de error (ELA)<\/a>, que comprueba si hay artefactos de compresi\u00f3n JPEG para identificar las partes modificadas de una imagen. Muchas herramientas de an\u00e1lisis de im\u00e1genes populares, como <a href=\"https:\/\/www.fakeimagedetector.com\/\" target=\"_blank\" rel=\"nofollow noopener\">Fake Image Detector<\/a>, aplican estas t\u00e9cnicas.<\/p>\n<div id=\"attachment_29960\" style=\"width: 619px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115333\/real-or-fake-image-analysis-and-provenance-03.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29960\" class=\"wp-image-29960 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115333\/real-or-fake-image-analysis-and-provenance-03.jpg\" alt=\"Fake Image Detector advierte que el Papa probablemente no us\u00f3 esa campera el domingo de Pascuas... o nunca.\" width=\"609\" height=\"810\"><\/a><p id=\"caption-attachment-29960\" class=\"wp-caption-text\">Fake Image Detector advierte que el Papa probablemente no us\u00f3 esa campera el domingo de Pascuas\u2026 o nunca.<\/p><\/div>\n<p>Con la aparici\u00f3n de la IA generativa, tambi\u00e9n hemos visto nuevos m\u00e9todos basados en la IA para detectar el contenido generado, pero ninguno de ellos es perfecto. Estos son algunos de los desarrollos relevantes: detecci\u00f3n de <a href=\"https:\/\/www.hhi.fraunhofer.de\/en\/departments\/vit\/research-groups\/computer-vision-graphics\/research-topics\/detection-of-face-morphing-attacks.html\" target=\"_blank\" rel=\"nofollow noopener\">cambio de rostro<\/a>, detecci\u00f3n de im\u00e1genes generadas por IA y <a href=\"https:\/\/www.aiornot.com\/#pricing\" target=\"_blank\" rel=\"nofollow noopener\">determinaci\u00f3n del modelo de IA utilizado para generarlas<\/a>, y un <a href=\"https:\/\/huggingface.co\/Organika\/sdxl-detector\" target=\"_blank\" rel=\"nofollow noopener\">modelo de IA<\/a> abierto para los mismos fines.<\/p>\n<p>Con todos estos enfoques, el problema clave es que ninguno te da el 100\u00a0% de certeza sobre la procedencia de la imagen, garantiza que la imagen est\u00e9 libre de modificaciones o permite verificar dichas modificaciones.<\/p>\n<h2>WWW al rescate: verificar la procedencia del contenido<\/h2>\n<p>\u00bfNo ser\u00eda fant\u00e1stico si los usuarios comunes pudieran comprobar si una imagen es real? Imagina hacer clic en una fotograf\u00eda y ver algo como: \u201cJuan tom\u00f3 esta fotograf\u00eda con un iPhone el 20 de marzo\u201d, \u201cAna recort\u00f3 los bordes y aument\u00f3 el brillo el 22 de marzo\u201d, \u201cPedro volvi\u00f3 a guardar esta imagen con alta compresi\u00f3n el 23 de marzo\u201d, o \u201d No se realizaron cambios\u201d, y todos estos datos ser\u00edan imposibles de falsificar. Suena como un sue\u00f1o, \u00bfcierto? Bueno, eso es exactamente lo que busca la Coalici\u00f3n para la <a href=\"https:\/\/c2pa.org\/\" target=\"_blank\" rel=\"nofollow noopener\">Procedencia y Autenticidad del Contenido (C2PA)<\/a>. La C2PA incluye algunos de los principales actores de las industrias de la inform\u00e1tica, la fotograf\u00eda y los medios de comunicaci\u00f3n: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press y alrededor de un centenar de otros miembros; b\u00e1sicamente todas las empresas que podr\u00edan haber estado involucradas individualmente en casi cualquier paso de la vida de una imagen, desde su creaci\u00f3n hasta su publicaci\u00f3n en l\u00ednea.<\/p>\n<p>El <a href=\"https:\/\/c2pa.org\/specifications\/specifications\/1.3\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">est\u00e1ndar de la C2PA<\/a> desarrollado por esta coalici\u00f3n ya est\u00e1 disponible e incluso ha alcanzado la versi\u00f3n 1.3, y ahora estamos empezando a ver que las piezas del rompecabezas industrial necesarias para usarlo encajan en su lugar. Nikon <a href=\"https:\/\/www.nikon.com\/company\/news\/2024\/0109_imaging_02.html\" target=\"_blank\" rel=\"nofollow noopener\">planea<\/a> fabricar c\u00e1maras compatibles con la C2PA, y la BBC ya ha <a href=\"https:\/\/www.bbc.co.uk\/rd\/blog\/2024-03-c2pa-verification-news-journalism-credentials\" target=\"_blank\" rel=\"nofollow noopener\">publicado<\/a> sus primeros art\u00edculos con im\u00e1genes verificadas.<\/p>\n<div id=\"attachment_29961\" style=\"width: 1258px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115535\/real-or-fake-image-analysis-and-provenance-04.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29961\" class=\"wp-image-29961 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115535\/real-or-fake-image-analysis-and-provenance-04.jpg\" alt=\"La BBC habla sobre c\u00f3mo se verifican las im\u00e1genes y los v\u00eddeos en sus art\u00edculos\" width=\"1248\" height=\"702\"><\/a><p id=\"caption-attachment-29961\" class=\"wp-caption-text\">La BBC habla sobre c\u00f3mo se verifican las im\u00e1genes y los v\u00eddeos en sus art\u00edculos<\/p><\/div>\n<p>La idea es que, cuando los medios de comunicaci\u00f3n responsables y las grandes empresas pasen a publicar im\u00e1genes en forma verificada, puedas comprobar la procedencia de cualquier imagen directamente en el navegador. Ver\u00e1s una peque\u00f1a etiqueta de \u201cimagen verificada\u201d y, cuando hagas clic en ella, aparecer\u00e1 una ventana m\u00e1s grande que te mostrar\u00e1 qu\u00e9 im\u00e1genes sirvieron como origen y qu\u00e9 ediciones se realizaron en cada etapa antes de que la imagen apareciera en el navegador, qui\u00e9n las hizo y cu\u00e1ndo. Incluso podr\u00e1s ver todas las versiones intermedias de la imagen.<\/p>\n<div id=\"attachment_29962\" style=\"width: 2090px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115616\/real-or-fake-image-analysis-and-provenance-05.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29962\" class=\"wp-image-29962 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115616\/real-or-fake-image-analysis-and-provenance-05.jpg\" alt=\"Historia de la creaci\u00f3n y edici\u00f3n de im\u00e1genes\" width=\"2080\" height=\"756\"><\/a><p id=\"caption-attachment-29962\" class=\"wp-caption-text\">Historia de la creaci\u00f3n y edici\u00f3n de im\u00e1genes<\/p><\/div>\n<p>Este enfoque no es solo para c\u00e1maras; tambi\u00e9n puede funcionar para otras formas de crear im\u00e1genes. Servicios como Dall-E y Midjourney tambi\u00e9n pueden etiquetar sus creaciones.<\/p>\n<div id=\"attachment_29963\" style=\"width: 1174px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115644\/real-or-fake-image-analysis-and-provenance-06.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29963\" class=\"wp-image-29963 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115644\/real-or-fake-image-analysis-and-provenance-06.jpg\" alt=\"Esto fue claramente creado en Adobe Photoshop\" width=\"1164\" height=\"977\"><\/a><p id=\"caption-attachment-29963\" class=\"wp-caption-text\">Esto fue claramente creado en Adobe Photoshop<\/p><\/div>\n<p>El proceso de verificaci\u00f3n se basa en una criptograf\u00eda de clave p\u00fablica similar a la protecci\u00f3n utilizada en los certificados de servidor web para establecer una conexi\u00f3n HTTPS segura. La idea es que cada creador de im\u00e1genes, ya sea Joe Bloggs con un tipo particular de c\u00e1mara o Angela Smith con una licencia de Photoshop, necesitar\u00e1 obtener un certificado X.509 de una autoridad de certificaci\u00f3n de confianza. Este certificado se puede conectar directamente a la c\u00e1mara en la f\u00e1brica, mientras que, para los productos de software, se puede emitir al momento de la activaci\u00f3n. Al procesar im\u00e1genes con seguimiento de procedencia, cada nueva versi\u00f3n del archivo contendr\u00e1 una gran cantidad de informaci\u00f3n adicional: la fecha, hora y ubicaci\u00f3n de las ediciones, las miniaturas de las versiones original y editada, etc. Todo esto ir\u00e1 firmado digitalmente por el autor o editor de la imagen. De esta forma, un archivo de imagen verificado tendr\u00e1 una cadena de todas sus versiones anteriores, cada una firmada por la persona que lo edit\u00f3.<\/p>\n<div id=\"attachment_29964\" style=\"width: 742px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115752\/real-or-fake-image-analysis-and-provenance-07.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29964\" class=\"wp-image-29964 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115752\/real-or-fake-image-analysis-and-provenance-07.jpg\" alt=\"Este v\u00eddeo incluye contenido generado por IA\" width=\"732\" height=\"412\"><\/a><p id=\"caption-attachment-29964\" class=\"wp-caption-text\">Este v\u00eddeo incluye contenido generado por IA<\/p><\/div>\n<p>Los autores de la especificaci\u00f3n tambi\u00e9n se preocuparon por las funciones de privacidad. A veces, los periodistas no pueden revelar sus fuentes. Para situaciones como esa, hay un tipo especial de edici\u00f3n llamada \u201credacci\u00f3n\u201d. Esto permite que alguien reemplace parte de la informaci\u00f3n sobre el creador de la imagen con ceros y luego firme ese cambio con su propio certificado.<\/p>\n<p>Para mostrar las capacidades de la C2PA, se cre\u00f3 una colecci\u00f3n de <a href=\"https:\/\/github.com\/c2pa-org\/public-testfiles?tab=readme-ov-file\" target=\"_blank\" rel=\"nofollow noopener\">im\u00e1genes y v\u00eddeos de prueba<\/a>. Puedes consultar el <a href=\"https:\/\/contentcredentials.org\/verify\" target=\"_blank\" rel=\"nofollow noopener\">sitio web de Content Credentials<\/a> para ver las credenciales, el historial de creaci\u00f3n y el historial de edici\u00f3n de estas im\u00e1genes.<\/p>\n<div id=\"attachment_29965\" style=\"width: 1910px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115846\/real-or-fake-image-analysis-and-provenance-08.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-29965\" class=\"wp-image-29965 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2024\/04\/15115846\/real-or-fake-image-analysis-and-provenance-08.jpg\" alt=\"El sitio web de Content Credentials revela el origen completo de las im\u00e1genes de la C2PA\" width=\"1900\" height=\"1286\"><\/a><p id=\"caption-attachment-29965\" class=\"wp-caption-text\">El sitio web de Content Credentials revela el origen completo de las im\u00e1genes de la C2PA<\/p><\/div>\n<h2>Limitaciones naturales<\/h2>\n<p>Desafortunadamente, las firmas digitales para im\u00e1genes no resolver\u00e1n el problema de las falsificaciones de la noche a la ma\u00f1ana. Despu\u00e9s de todo, ya hay miles de millones de im\u00e1genes en l\u00ednea que no han sido firmadas por nadie y que no van a ninguna parte. Sin embargo, a medida que m\u00e1s y m\u00e1s fuentes de informaci\u00f3n de renombre pasen a publicar solo im\u00e1genes firmadas, cualquier fotograf\u00eda sin una firma digital comenzar\u00e1 a ser vista con sospecha. Las fotograf\u00edas y los v\u00eddeos reales con marcas de tiempo y datos de ubicaci\u00f3n ser\u00e1n casi imposibles de hacer pasar por otra cosa, y el contenido generado por IA ser\u00e1 m\u00e1s f\u00e1cil de detectar.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>C\u00f3mo diferenciar una fotograf\u00eda o un v\u00eddeo real de una falsificaci\u00f3n y rastrear su procedencia. <\/p>\n","protected":false},"author":2722,"featured_media":29957,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[10],"tags":[323,3552,919,3623,1307,2050,1305,43,612],"class_list":{"0":"post-29956","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-consejos","9":"tag-deepfake","10":"tag-estafas","11":"tag-falsificaciones","12":"tag-ia","13":"tag-imagenes","14":"tag-inteligencia-artificial","15":"tag-phishing","16":"tag-tecnologia"},"hreflang":[{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/real-or-fake-image-analysis-and-provenance\/29956\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/real-or-fake-image-analysis-and-provenance\/27312\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/22606\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/11577\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/29968\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/real-or-fake-image-analysis-and-provenance\/27469\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/27262\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/real-or-fake-image-analysis-and-provenance\/28683\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/real-or-fake-image-analysis-and-provenance\/37264\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/real-or-fake-image-analysis-and-provenance\/12254\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/50932\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/real-or-fake-image-analysis-and-provenance\/21787\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/real-or-fake-image-analysis-and-provenance\/22495\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/real-or-fake-image-analysis-and-provenance\/31189\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/real-or-fake-image-analysis-and-provenance\/36220\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/real-or-fake-image-analysis-and-provenance\/27628\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/real-or-fake-image-analysis-and-provenance\/33473\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/real-or-fake-image-analysis-and-provenance\/33100\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.es\/blog\/tag\/imagenes\/","name":"im\u00e1genes"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/29956","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/comments?post=29956"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/29956\/revisions"}],"predecessor-version":[{"id":29968,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/29956\/revisions\/29968"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media\/29957"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media?parent=29956"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/categories?post=29956"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/tags?post=29956"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}