{"id":25890,"date":"2021-09-02T11:09:32","date_gmt":"2021-09-02T09:09:32","guid":{"rendered":"https:\/\/www.kaspersky.es\/blog\/?p=25890"},"modified":"2021-09-30T17:50:39","modified_gmt":"2021-09-30T15:50:39","slug":"what-is-apple-csam-detection","status":"publish","type":"post","link":"https:\/\/www.kaspersky.es\/blog\/what-is-apple-csam-detection\/25890\/","title":{"rendered":"El plan de Apple para supervisar a los usuarios"},"content":{"rendered":"<p>A principios de agosto del 2021, Apple <a href=\"https:\/\/www.theverge.com\/2021\/8\/5\/22611721\/apple-csam-child-abuse-scanning-hash-system-ncmec\" target=\"_blank\" rel=\"noopener nofollow\">present\u00f3 su nuevo sistema<\/a> para identificar fotograf\u00edas que contengan im\u00e1genes de abuso infantil. Aunque los motivos de Apple (combatir la propagaci\u00f3n de pornograf\u00eda infantil) parece sin duda bien intencionados, el anuncio inmediatamente caus\u00f3 revuelo.<\/p>\n<p>Apple ha cultivado una imagen propia como fabricante de dispositivos que se preocupa por la privacidad de los usuarios. Las funciones nuevas anticipadas para iOS 15 y iPadOS 15 ya han recibido un golpe serio a esta reputaci\u00f3n, pero la empresa no da marcha atr\u00e1s. Esto fue lo que pas\u00f3 y c\u00f3mo afectar\u00e1 a los usuarios de iPhone y iPad.<\/p>\n<h2>\u00bfQu\u00e9 es CSAM Detection?<\/h2>\n<p>Los planes de Apple se describen en <a href=\"https:\/\/www.apple.com\/child-safety\/\" target=\"_blank\" rel=\"noopener nofollow\">el sitio web de la empresa<\/a>, que ha desarrollado un sistema llamado CSAM Detection, el cual busca en los dispositivos de los usuarios \u201cmaterial de abuso sexual infantil\u201d, tambi\u00e9n conocido como CSAM.<\/p>\n<p>Si bien \u201cpornograf\u00eda infantil\u201d es sin\u00f3nimo de CSAM (las siglas en ingl\u00e9s de Child Sexual Abuse Material), el Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (<a href=\"https:\/\/www.missingkids.org\/HOME\" target=\"_blank\" rel=\"noopener nofollow\">NCMEC<\/a>), que ayuda a encontrar y rescatar a ni\u00f1os desaparecidos y explotados en los Estados Unidos, considera \u201cCSAM\u201d el t\u00e9rmino m\u00e1s apropiado. El NCMEC proporciona a Apple y a otras firmas de tecnolog\u00eda informaci\u00f3n sobre las im\u00e1genes conocidas en CSAM.<\/p>\n<p>Apple introdujo CSAM Detection junto con otras funciones que extienden los controles parentales en los dispositivos m\u00f3viles Apple. Por ejemplo, los padres recibir\u00e1n una notificaci\u00f3n si alguien env\u00eda a su hijo una foto con contenido sexual expl\u00edcito en Mensajes Apple.<\/p>\n<p>La revelaci\u00f3n simult\u00e1nea de estas tecnolog\u00edas caus\u00f3 algo de confusi\u00f3n y muchas personas se quedaron con la impresi\u00f3n de que Apple ahora supervisar\u00eda a los usuarios todo el tiempo. Pero no es as\u00ed.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial-generic\">\n<h2>Calendario de lanzamiento de CSAM Detection<\/h2>\n<p>CSAM Detection formar\u00e1 parte de los sistemas operativos para m\u00f3vil iOS 15 y iPadOS, los cuales estar\u00e1n disponibles a los usuarios de todos los iPhone y iPad (iPhone 6S, iPad quinta generaci\u00f3n y posteriores) este oto\u00f1o. Si bien la funci\u00f3n en teor\u00eda estar\u00e1 disponible en los dispositivos m\u00f3viles Apple de todo el mundo, por ahora el sistema solo funcionar\u00e1 por completo en los Estados Unidos.<\/p>\n<h2>C\u00f3mo funcionar\u00e1 CSAM Detection<\/h2>\n<p>CSAM Detection funciona solo en conjunto con Fotos de iCloud, el cual es parte del servicio iCloud que carga fotos desde un <em>smartphone<\/em> o tablet a los servidores de Apple. Tambi\u00e9n los vuelve accesibles en los otros dispositivos de los usuarios.<\/p>\n<p>Si un usuario desactiva la sincronizaci\u00f3n de fotos en las configuraciones, CSAM Detection deja de funcionar. \u00bfEsto significa que las fotos se comparan con las de las bases de datos de los delincuentes solo en la nube? No exactamente. El sistema es muy complejo de manera deliberada; Apple trata de garantizar un nivel necesario de privacidad.<\/p>\n<p>Como Apple <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">explica<\/a>, CSAM Detection funciona al escanear fotos en un dispositivo para determinar si sus fotos concuerdan con alguna en las bases de datos del NCMEC u otras organizaciones similares.<\/p>\n<div id=\"attachment_25893\" style=\"width: 1270px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-25893\" class=\"wp-image-25893 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2021\/09\/01185055\/what-is-apple-csam-detection-1.png\" alt=\"Diagrama simplificado de c\u00f3mo funciona CSAM Detection\" width=\"1260\" height=\"640\"><p id=\"caption-attachment-25893\" class=\"wp-caption-text\">Diagrama simplificado de c\u00f3mo funciona CSAM Detection. <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Fuente<\/a><\/p><\/div>\n<p>El m\u00e9todo de detecci\u00f3n utiliza la tecnolog\u00eda NeuralHash, lo que en esencia crea identificadores digitales, o <em>hashes<\/em>, para fotograf\u00edas basadas en su contenido. Si un <em>hash<\/em> coincide con uno de la base de datos de im\u00e1genes de explotaci\u00f3n infantil, entonces la imagen y sus <em>hash<\/em> se cargan en los servidores de Apple. Apple hace otra verificaci\u00f3n antes de registrar oficialmente la imagen.<\/p>\n<p>Otro componente del sistema, la tecnolog\u00eda criptogr\u00e1fica llamada <em>private set intersection<\/em> cifra los resultados del escaneo de CSAM Detection de manera que Apple puede descifrarlas solo si se cumplen ciertos criterios. En teor\u00eda, esto deber\u00eda evitar que se le diera un mal uso al sistema, es decir, deber\u00eda evitar que un empleado de una empresa abuse del sistema o entregue las im\u00e1genes a solicitud de las agencias gubernamentales.<\/p>\n<p>En una entrevista del 13 de agosto con el Wall Street Journal, Craig Federighi, el Vicepresidente s\u00e9nior de ingenier\u00eda del software de Apple, <a href=\"https:\/\/www.wsj.com\/articles\/apple-executive-defends-tools-to-fight-child-porn-acknowledges-privacy-backlash-11628859600\" target=\"_blank\" rel=\"noopener nofollow\">anunci\u00f3<\/a> la principal protecci\u00f3n para el protocolo <em>private set intersection<\/em>: Para alertar a Apple, es necesario que 30 fotos coincidan con las im\u00e1genes de la base de datos del NCMEC. Como muestra el diagrama siguiente, el sistema <em>private set intersection<\/em> no permitir\u00e1 que el conjunto de datos (la informaci\u00f3n sobre la operaci\u00f3n de CSAM Detection y las fotos) sea descifrado hasta que se haya alcanzado dicho umbral. De acuerdo con Apple, debido a que el umbral para marcar una imagen es tan alto, un falso positivo es muy poco probable, una \u201cposibilidad entre un bill\u00f3n\u201d.<\/p>\n<div id=\"attachment_25894\" style=\"width: 1150px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-25894\" class=\"wp-image-25894 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2021\/09\/01185143\/what-is-apple-csam-detection-2.png\" alt=\"Una funci\u00f3n importante del sistema CSAM Detection: para descifrar los datos, es necesario concordar una gran cantidad de fotograf\u00edas\" width=\"1140\" height=\"700\"><p id=\"caption-attachment-25894\" class=\"wp-caption-text\">Una funci\u00f3n importante del sistema CSAM Detection: para descifrar los datos, es necesario que una gran cantidad de fotograf\u00edas coincidan. <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Fuente<\/a><\/p><\/div>\n<p>\u00bfQu\u00e9 sucede cuando el sistema recibe la alerta? Un empleado de Apple revisa de manera manual los datos, confirma la presencia de pornograf\u00eda infantil y notifica a las autoridades. Por ahora el sistema funcionar\u00e1 por completo solo en los Estados Unidos, de manera que la notificaci\u00f3n ir\u00e1 al NCMEC, el cual est\u00e1 patrocinado por el Departamento de Justicia de los Estados Unidos.<\/p>\n<h2>Problemas con CSAM Detection<\/h2>\n<p>La cr\u00edtica potencial de las acciones de Apple se divide en dos categor\u00edas: cuestionar el enfoque de la empresa y escudri\u00f1ar las vulnerabilidades del protocolo. Por el momento, hay poca evidencia concreta de que Apple haya cometido un error t\u00e9cnico (un problema que analizaremos con m\u00e1s detalle a continuaci\u00f3n), aunque las quejas generales no se han hecho esperar.<\/p>\n<p>Por ejemplo, la Electronic Frontier Foundation <a href=\"https:\/\/www.eff.org\/deeplinks\/2021\/08\/if-you-build-it-they-will-come-apple-has-opened-backdoor-increased-surveillance\" target=\"_blank\" rel=\"noopener nofollow\">describi\u00f3<\/a> estos problemas con detalle. De acuerdo con la EFF, al a\u00f1adir el an\u00e1lisis de im\u00e1genes del lado del usuario, Apple est\u00e1, en esencia, integrando una puerta trasera en los dispositivos de los usuarios. La EFF <a href=\"https:\/\/www.eff.org\/deeplinks\/2019\/11\/why-adding-client-side-scanning-breaks-end-end-encryption\" target=\"_blank\" rel=\"noopener nofollow\">lleva criticando<\/a> el concepto desde el 2019.<\/p>\n<p>\u00bfPor qu\u00e9 es algo malo? Bien, imag\u00ednate que tienes un dispositivo en el que los datos est\u00e1n completamente cifrados (como afirma Apple) y que comienza a notificar a personas ajenas sobre ese contenido. Ahora el objetivo es la pornograf\u00eda infantil, lo que suscita un dicho com\u00fan, \u201cel que nada debe, nada teme\u201d, pero mientras exista este mecanismo, no podemos saber si no se aplicar\u00e1 a otro tipo de contenido.<\/p>\n<p>Finalmente, esta cr\u00edtica es m\u00e1s pol\u00edtica que tecnol\u00f3gica. El problema yace en la ausencia de un contrato social que equilibre la seguridad y la privacidad. Todos, desde los bur\u00f3cratas, fabricantes de dispositivos y desarrolladores de <em>software<\/em> hasta activistas de derechos humanos y usuarios, estamos tratando de definir este equilibrio.<\/p>\n<p>Las agencias policiales se quejan de que el cifrado generalizado complica la recopilaci\u00f3n de evidencias y el hecho de atrapar a los delincuentes, y esto es entendible. La preocupaci\u00f3n sobre la vigilancia digital masiva tambi\u00e9n resulta obvia. Existen montones de opiniones, incluidas las opiniones sobre las pol\u00edticas y acciones de Apple.<\/p>\n<h2>Problemas potenciales al implementar CSAM Detection<\/h2>\n<p>Una vez que dejamos atr\u00e1s las preocupaciones \u00e9ticas, llegamos a caminos tecnol\u00f3gicos tormentosos. Cualquier c\u00f3digo de programa produce vulnerabilidades nuevas. Y, dejando a un lado a los gobiernos, \u00bfqu\u00e9 pasar\u00eda si un ciberdelincuente se aprovechara de las vulnerabilidades de CSAM Detection? La preocupaci\u00f3n sobre el cifrado de datos es natural y v\u00e1lida: Si debilitas la protecci\u00f3n de la informaci\u00f3n, incluso aunque lo hagas con buenas intenciones, cualquiera podr\u00eda explotar la debilidad para otros fines.<\/p>\n<p>Acaba de comenzar una auditor\u00eda independiente del c\u00f3digo de CSAM Detection y alargarse en el tiempo. Sin embargo, ya hemos aprendido algunas cosas.<\/p>\n<p>En primer lugar, desde la versi\u00f3n 14.3 de iOS (y Mac\u00a0OS) <a href=\"https:\/\/www.macobserver.com\/news\/neural-hash-extracted\/\" target=\"_blank\" rel=\"noopener nofollow\">existe<\/a> un c\u00f3digo que permite comparar las fotos con un \u201cmodelo\u201d. Es completamente posible que el c\u00f3digo forme parte de CSAM Detection. <a href=\"https:\/\/github.com\/AsuharietYgvar\/AppleNeuralHash2ONNX\" target=\"_blank\" rel=\"noopener nofollow\">Las herramientas<\/a> para experimentar con un algoritmo de b\u00fasqueda para comparar im\u00e1genes ya encontraron algunas <a href=\"https:\/\/github.com\/anishathalye\/neural-hash-collider\" target=\"_blank\" rel=\"noopener nofollow\">colisiones<\/a>. Por ejemplo, de acuerdo con el algoritmo NeuralHash de Apple, las dos im\u00e1genes a continuaci\u00f3n tienen el mismo <em>hash<\/em>:<\/p>\n<div id=\"attachment_25895\" style=\"width: 750px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-25895\" class=\"wp-image-25895 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2021\/09\/01185242\/what-is-apple-csam-detection-3.png\" alt=\"De acuerdo con el algoritmo NeuralHash de Apple, estas dos fotos concuerdan\" width=\"740\" height=\"360\"><p id=\"caption-attachment-25895\" class=\"wp-caption-text\">De acuerdo con el algoritmo NeuralHash de Apple, estas dos fotos coinciden. <a href=\"https:\/\/github.com\/anishathalye\/neural-hash-collider\" target=\"_blank\" rel=\"noopener nofollow\">Fuente<\/a><\/p><\/div>\n<p>Si es posible sacar una base de datos de <em>hashes<\/em> de fotos ilegales, entonces es posible crear im\u00e1genes \u201cinocentes\u201d que detonen una alerta, lo que significa que Apple podr\u00eda recibir suficientes alertas falsas para que CSAM Detection sea insostenible. Esta es la raz\u00f3n m\u00e1s probable por la que Apple separ\u00f3 la detecci\u00f3n, dejando que parte del algoritmo funcione \u00fanicamente en el extremo del servidor.<\/p>\n<p>Tambi\u00e9n existe este <a href=\"https:\/\/pseudorandom.resistant.tech\/obfuscated_apples.html\" target=\"_blank\" rel=\"noopener nofollow\">an\u00e1lisis<\/a> del protocolo <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/Apple_PSI_System_Security_Protocol_and_Analysis.pdf\" target=\"_blank\" rel=\"noopener nofollow\"><em>private set intersection<\/em><\/a> de Apple. La queja es esencialmente que,\u00a0 incluso antes de alcanzar el umbral de alerta, el sistema PSI transfiere bastante informaci\u00f3n a los servidores de Apple. El art\u00edculo describe una situaci\u00f3n en la que las agencias policiales solicitan los datos a Apple y sugiere que incluso las alertas falsas podr\u00edan acabar en una visita de la polic\u00eda.<\/p>\n<p>Por ahora, lo anterior son solo pruebas iniciales de una revisi\u00f3n externa de CSAM Detection. Su \u00e9xito depender\u00e1 en gran parte de que la empresa, famosa por ser tan reservada, proporcione transparencia respecto al funcionamiento de CSAM Detection, en particular su c\u00f3digo fuente.<\/p>\n<h2>Qu\u00e9 significa la CSAM Detection para el usuario promedio<\/h2>\n<p>Los dispositivos modernos son tan complejos que no es f\u00e1cil determinar la eficacia real de su seguridad, es decir, si cumplen con las promesas de sus fabricantes. Lo que la mayor\u00eda de nosotros puede hacer es confiar (o desconfiar) de la empresa teniendo en cuenta su reputaci\u00f3n.<\/p>\n<p>Sin embargo, es importante recordar este punto clave: CSAM Detection opera solo si los usuarios suben fotos en iCloud. La decisi\u00f3n de Apple fue deliberada y anticip\u00f3 alguna de las objeciones a la tecnolog\u00eda. Si no cargas fotos en la nube, no se enviar\u00e1 nada a ning\u00fan lado.<\/p>\n<p>Tal vez recuerdes el famoso <a href=\"https:\/\/es.wikipedia.org\/wiki\/Masacre_de_San_Bernardino_de_2015\" target=\"_blank\" rel=\"noopener nofollow\">conflicto<\/a> entre Apple y el FBI en el 2016, cuando el FBI le pidi\u00f3 a Apple ayuda para desbloquear un iPhone 5C que le pertenec\u00eda al autor de un tiroteo masivo en San Bernardino, California. El FBI quer\u00eda que Apple escribiera <em>software<\/em> que permitiera al FBI atravesar la capa de protecci\u00f3n con contrase\u00f1a del tel\u00e9fono.<\/p>\n<p>La empresa reconoci\u00f3 que acceder a esta solicitud no solo resultar\u00eda en el desbloqueo de este tel\u00e9fono en particular, sino de cualquier otro, y se neg\u00f3. El FBI desisti\u00f3 y termin\u00f3 <em>hackeando<\/em> el dispositivo con ayuda externa, <a href=\"https:\/\/www.washingtonpost.com\/technology\/2021\/04\/14\/azimuth-san-bernardino-apple-iphone-fbi\/\" target=\"_blank\" rel=\"noopener nofollow\">explotando las vulnerabilidades del <em>software<\/em><\/a>, y Apple conserv\u00f3 su reputaci\u00f3n como empresa que lucha por los derechos de sus clientes.<\/p>\n<p>Sin embargo, la historia no es tan simple. Apple s\u00ed entreg\u00f3 una copia de los datos de iCloud. De hecho, la empresa <a href=\"https:\/\/www.reuters.com\/article\/us-apple-fbi-icloud-exclusive-idUSKBN1ZK1CT\" target=\"_blank\" rel=\"noopener nofollow\">tiene acceso<\/a> a pr\u00e1cticamente cualquier dato de usuario cargado en la nube. Cierta informaci\u00f3n, como <a href=\"https:\/\/support.apple.com\/es-es\/HT202303\" target=\"_blank\" rel=\"noopener nofollow\">contrase\u00f1as de llavero e informaci\u00f3n de pago<\/a>, se almacena con cifrado de extremo a extremo, pero la mayor\u00eda de la informaci\u00f3n se cifra solo para protecci\u00f3n contra acceso no autorizado, es decir, contra un <em>hack<\/em> de los servidores de la empresa. Esto significa que la empresa puede descifrar los datos.<\/p>\n<p>Las implicaciones son, tal vez, el giro de trama m\u00e1s interesante en la historia de CSAM Detection. La empresa podr\u00eda, por ejemplo, solo escanear todas las im\u00e1genes en Fotos de iCloud (como lo hacen Facebook, Google y muchos otros servicios en la nube). Apple ha creado un mecanismo m\u00e1s elegante que ayudar\u00eda a repeler acusaciones de vigilancia masiva de los usuarios, pero en su lugar, ha atra\u00eddo a\u00fan m\u00e1s cr\u00edticas, por escanear los dispositivos de los usuarios.<\/p>\n<p>B\u00e1sicamente, el esc\u00e1ndalo no cambia nada para el usuario promedio. Si te preocupa la protecci\u00f3n de tus datos, deber\u00edas ser cr\u00edtico con <em>cualquier<\/em> servicio de nube. Los datos que almacenes en tu dispositivo a\u00fan son seguros. Las acciones recientes de Apple siembran dudas bien fundadas, pero todav\u00eda no sabemos si la empresa se mantendr\u00e1 en este camino.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Apple planea utilizar su nuevo sistema CSAM Detection para supervisar a los usuarios e identificar a quienes almacenen pornograf\u00eda infantil en sus dispositivos.<\/p>\n","protected":false},"author":665,"featured_media":25892,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1124,2019],"tags":[28,199,329,17,220,612,1004],"class_list":{"0":"post-25890","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-privacy","8":"category-technology","9":"tag-apple","10":"tag-ios","11":"tag-ipad","12":"tag-iphone","13":"tag-privacidad","14":"tag-tecnologia","15":"tag-vigilancia"},"hreflang":[{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/what-is-apple-csam-detection\/25890\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/what-is-apple-csam-detection\/23225\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/what-is-apple-csam-detection\/18712\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/what-is-apple-csam-detection\/9359\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/what-is-apple-csam-detection\/25274\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/what-is-apple-csam-detection\/23344\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/what-is-apple-csam-detection\/22723\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/what-is-apple-csam-detection\/25409\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/what-is-apple-csam-detection\/31362\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/what-is-apple-csam-detection\/9971\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/what-is-apple-csam-detection\/41502\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/what-is-apple-csam-detection\/17541\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/what-is-apple-csam-detection\/18025\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/what-is-apple-csam-detection\/15203\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/what-is-apple-csam-detection\/27253\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/what-is-apple-csam-detection\/31527\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/what-is-apple-csam-detection\/27462\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/what-is-apple-csam-detection\/24270\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/what-is-apple-csam-detection\/29599\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/what-is-apple-csam-detection\/29404\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.es\/blog\/tag\/ios\/","name":"iOS"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/25890","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/users\/665"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/comments?post=25890"}],"version-history":[{"count":9,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/25890\/revisions"}],"predecessor-version":[{"id":26114,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/25890\/revisions\/26114"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media\/25892"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media?parent=25890"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/categories?post=25890"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/tags?post=25890"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}