{"id":31490,"date":"2025-10-06T12:45:16","date_gmt":"2025-10-06T10:45:16","guid":{"rendered":"https:\/\/www.kaspersky.es\/blog\/?p=31490"},"modified":"2025-10-06T12:46:16","modified_gmt":"2025-10-06T10:46:16","slug":"ai-phishing-and-scams","status":"publish","type":"post","link":"https:\/\/www.kaspersky.es\/blog\/ai-phishing-and-scams\/31490\/","title":{"rendered":"C\u00f3mo usan la Inteligencia Artificial los phishers y estafadores"},"content":{"rendered":"<p>Si bien la IA ofrece un sinf\u00edn de nuevas oportunidades, tambi\u00e9n introduce una gran variedad de nuevas amenazas. La IA generativa permite a los actores maliciosos crear deepfakes y sitios web falsos, enviar spam e incluso hacerse pasar por tus amigos y familiares. En esta publicaci\u00f3n, se explica c\u00f3mo se utilizan las redes neuronales para las estafas y el phishing. Tambi\u00e9n te compartiremos consejos sobre c\u00f3mo mantenerte a salvo. Para obtener informaci\u00f3n m\u00e1s detallada sobre las estafas de phishing con tecnolog\u00eda de IA, consulta el informe completo en <a href=\"https:\/\/securelist.lat\/new-phishing-and-scam-trends-in-2025\/100247\/\" target=\"_blank\" rel=\"nofollow noopener\">Securelist<\/a>.<\/p>\n<h2>Matanza de cerdos, catfishing y deepfakes<\/h2>\n<p>Los estafadores est\u00e1n usando bots con IA que se hacen pasar por personas reales, especialmente en las estafas rom\u00e1nticas. Crean personalidades ficticias que las usan para comunicarse con varias v\u00edctimas al mismo tiempo y establecer fuertes v\u00ednculos emocionales. Esto puede prolongarse durante semanas o incluso meses: primero comienza con un ligero coqueteo y, luego, se pasa gradualmente a tener conversaciones sobre \u201coportunidades de inversi\u00f3n lucrativas\u201d. La conexi\u00f3n personal a largo plazo ayuda a disipar cualquier sospecha que pueda tener la v\u00edctima. Pero la estafa, por supuesto, termina una vez que la v\u00edctima invierte su dinero en un proyecto fraudulento. Este tipo de estafas se conocen como \u201cmatanza de cerdos\u201d, que ya tratamos en detalle en una <a href=\"https:\/\/www.kaspersky.es\/blog\/pig-butchering-crypto-investment-scam\/29780\/\" target=\"_blank\" rel=\"noopener\">publicaci\u00f3n anterior<\/a>. Si bien antes eran administradas por enormes granjas de estafas en el sudeste asi\u00e1tico que empleaban a miles de personas, estas estafas ahora dependen cada vez m\u00e1s de la IA.<\/p>\n<p>Las redes neuronales han facilitado mucho el <a href=\"https:\/\/es.wikipedia.org\/wiki\/Catfishing\" target=\"_blank\" rel=\"noopener nofollow\">catfishing<\/a>, es decir, los estafadores crean una identidad falsa o se hacen pasar por una persona real. Las redes neuronales generativas modernas pueden imitar la apariencia, la voz o el estilo de escritura de una persona con un grado de exactitud suficiente. Lo \u00fanico que tiene que hacer un estafador es recolectar la informaci\u00f3n p\u00fablica sobre una persona e introducir esos datos en la IA. Y absolutamente todo puede ser de utilidad: fotograf\u00edas, v\u00eddeos, publicaciones y comentarios p\u00fablicos, informaci\u00f3n sobre familiares, pasatiempos, edad, etc.<\/p>\n<p>Por lo tanto, si un familiar o amigo te env\u00eda un mensaje desde una cuenta nueva y, por ejemplo, te pide que le prestes dinero, es probable que no sea realmente tu familiar o amigo. En una situaci\u00f3n como esa, lo mejor que puedes hacer es contactar con la persona real a trav\u00e9s de otro canal (por ejemplo, llam\u00e1ndola por tel\u00e9fono) y preguntarle directamente si todo est\u00e1 bien. Otra medida inteligente es hacer algunas preguntas personales que un estafador no podr\u00eda encontrar en Internet ni en tus mensajes anteriores.<\/p>\n<p>Pero la suplantaci\u00f3n de identidad mediante textos convincentes es solo una parte del problema: los deepfakes de audio y v\u00eddeo representan una amenaza a\u00fan mayor. Hace poco compartimos c\u00f3mo <a href=\"https:\/\/www.kaspersky.es\/blog\/scam-with-deepfakes-in-instagram-facebook-whatsapp\/31273\/\" target=\"_blank\" rel=\"noopener\">los estafadores utilizan deepfakes de blogueros populares e inversores en criptomonedas en las redes sociales<\/a>. Estas celebridades falsas invitan a sus seguidores a tener \u201cconsultas personales\u201d o unirse a \u201cchats exclusivos sobre inversiones\u201d, o incluso <a href=\"https:\/\/www.kaspersky.es\/blog\/how-to-protect-your-account-from-sim-swapping\/30922\/\" target=\"_blank\" rel=\"noopener\">prometen premios en efectivo y regalos costosos<\/a>.<\/p>\n<p>\u00a0<\/p>\n<div id=\"attachment_31496\" style=\"width: 533px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2025\/10\/06120456\/ai-phishing-and-scams-1-2.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31496\" class=\"size-large wp-image-31496\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2025\/10\/06120456\/ai-phishing-and-scams-1-2-523x1024.jpg\" alt=\"\u00bfY por qu\u00e9 Jennifer Aniston no regalar\u00eda una MacBook? \" width=\"523\" height=\"1024\"><\/a><p id=\"caption-attachment-31496\" class=\"wp-caption-text\">\u00bfY por qu\u00e9 Jennifer Aniston no regalar\u00eda un MacBook?<\/p><\/div>\n<p>Sin embargo, las redes sociales no son el \u00fanico lugar donde se usan los deepfakes. Tambi\u00e9n se generan para videollamadas y llamadas de audio en tiempo real. A principios de este a\u00f1o, una mujer de Florida <a href=\"https:\/\/nypost.com\/2025\/07\/17\/us-news\/florida-woman-tricked-into-forking-over-15k-by-ai-cloning-her-daughters-voice-i-know-my-daughters-cry\/\" target=\"_blank\" rel=\"noopener nofollow\">perdi\u00f3<\/a> 15 000 $ despu\u00e9s de creer que estaba hablando con su hija, que supuestamente hab\u00eda sufrido un accidente de coche. Los estafadores utilizaron un deepfake muy realista de la voz de su hija e incluso lograron imitar su llanto.<\/p>\n<blockquote><p>Los expertos del equipo GReAT de Kaspersky encontraron ofertas en la dark web para crear deepfakes de v\u00eddeo y audio en tiempo real. El precio de estos servicios depende de la sofisticaci\u00f3n y la duraci\u00f3n del contenido: puede costar tan solo 30 $ para los deepfakes de voz y 50 $ para los v\u00eddeos. Hace solo un par de a\u00f1os, estos servicios costaban mucho m\u00e1s (<a href=\"https:\/\/www.kaspersky.com\/about\/press-releases\/20k-for-a-one-minute-video-kaspersky-explores-the-darknet-deepfake-industry\" target=\"_blank\" rel=\"noopener nofollow\">hasta 20 000 $ por minuto<\/a>) y la generaci\u00f3n de contenido en tiempo real no exist\u00eda.<\/p>\n<p>Los anuncios ofrecen diferentes opciones: intercambio de rostros en tiempo real en videoconferencias o aplicaciones de mensajer\u00eda, intercambio de rostros para la verificaci\u00f3n de identidad o sustituci\u00f3n de imagen de un tel\u00e9fono o una c\u00e1mara virtual.<\/p>\n<p>Los estafadores tambi\u00e9n ofrecen herramientas para sincronizar los labios con cualquier texto en un v\u00eddeo, incluso en idiomas extranjeros. Adem\u00e1s, ofrecen herramientas de clonaci\u00f3n de voz que pueden cambiar el tono y el timbre para adaptarse a la emoci\u00f3n deseada.<\/p>\n<p>Sin embargo, nuestros expertos sospechan que muchos de estos anuncios de la dark web podr\u00edan ser estafas en s\u00ed mismas, que est\u00e1n dise\u00f1adas para enga\u00f1ar a otros posibles estafadores para que paguen por servicios que en realidad no existen.<\/p><\/blockquote>\n<h4>C\u00f3mo mantenerse seguro<\/h4>\n<ul>\n<li>No conf\u00edes en tus conocidos en l\u00ednea a los que nunca hayas visto en persona. Aunque hayas estado chateando con ellos durante un tiempo y sientas que has encontrado a un \u201calma gemela\u201d, desconf\u00eda si te hablan de criptomonedas, inversiones o cualquier otro plan que requiera que les env\u00edes dinero.<\/li>\n<li>No te dejes enga\u00f1ar si te encuentras con ofertas inesperadas y atractivas que aparentemente provienen de celebridades o empresas grandes en las redes sociales. Consulta siempre sus cuentas oficiales para verificar la informaci\u00f3n. No contin\u00faes si, para darte un \u201cregalo\u201d, en alg\u00fan momento te piden que pagues una tarifa, impuestos o gastos de env\u00edo, o que introduzcas los datos de tu tarjeta de cr\u00e9dito para recibir un premio en efectivo.<\/li>\n<li>Si tus amigos o familiares te env\u00edan mensajes con peticiones inusuales, ponte en contacto con ellos a trav\u00e9s de otro canal, como el tel\u00e9fono. Para mayor seguridad, preg\u00fantales por algo de lo que hayas hablado en su \u00faltima conversaci\u00f3n en persona. En el caso de amigos cercanos y familiares, es una buena idea acordar de antemano una palabra clave que solo vosotros conozc\u00e1is. Si comparten su ubicaci\u00f3n, compru\u00e9bala y confirma d\u00f3nde se encuentra la persona. Y no caigas en la trampa de la manipulaci\u00f3n para \u201capresurarte\u201d: el estafador o la IA pueden decirte que la situaci\u00f3n es urgente y que no tienen tiempo para responder preguntas \u201ctontas\u201d.<\/li>\n<li>Si tienes dudas durante una videollamada, p\u00eddele a la persona que gire la cabeza hacia un lado o que haga un movimiento complicado con la mano. Por lo general, los deepfakes no pueden cumplir con estas peticiones sin romper la ilusi\u00f3n. Adem\u00e1s, si la persona no parpadea o sus movimientos labiales o expresiones faciales parecen extra\u00f1os, es otra se\u00f1al de alarma.<\/li>\n<li>Nunca reveles ni compartas n\u00fameros de tarjetas bancarias, c\u00f3digos de un solo uso ni ninguna otra informaci\u00f3n confidencial.<\/li>\n<\/ul>\n<div id=\"attachment_31498\" style=\"width: 1034px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2025\/10\/06122409\/ai-phishing-and-scams-2.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31498\" class=\"size-large wp-image-31498\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2025\/10\/06122409\/ai-phishing-and-scams-2-1024x542.jpg\" alt=\"C\u00f3mo detectar un deepfake de v\u00eddeo\" width=\"1024\" height=\"542\"><\/a><p id=\"caption-attachment-31498\" class=\"wp-caption-text\">Un ejemplo de un deepfake que se desintegra cuando gira la cabeza. <a href=\"https:\/\/fortune.com\/2022\/09\/03\/live-deepfakes-detect-methods-zoom-fraud\/\" target=\"_blank\" rel=\"nofollow noopener\">Fuente<\/a>.<\/p><\/div>\n<h2>Llamadas automatizadas<\/h2>\n<p>Se trata de una forma eficaz de enga\u00f1ar a las personas sin tener que hablar con ellas directamente. Los estafadores est\u00e1n usando la IA para realizar llamadas automatizadas falsas en nombre de bancos, operadores de telefon\u00eda m\u00f3vil y servicios gubernamentales. Al otro lado de la l\u00ednea, solo hay un bot que se hace pasar por un agente de soporte. Parece real porque muchas empresas leg\u00edtimas utilizan asistentes de voz automatizados. Sin embargo, una empresa real nunca te llamar\u00e1 para decirte que tu cuenta ha sido hackeada ni te pedir\u00e1 un c\u00f3digo de verificaci\u00f3n.<\/p>\n<p>Si recibes una llamada de este tipo, lo importante es que mantengas la calma. No te dejes enga\u00f1ar por t\u00e1cticas intimidatorias en las que se menciona \u201cuna cuenta hackeada\u201d o \u201cdinero robado\u201d. Simplemente cuelga y usa el n\u00famero oficial que aparece en el sitio web para llamar a la empresa real. Ten en cuenta que las estafas modernas pueden involucrar a varias personas que te van derivando de una a otra. Pueden llamar o enviar mensajes de texto desde n\u00fameros diferentes y fingir que son empleados bancarios, funcionarios del gobierno o incluso polic\u00edas.<\/p>\n<h2>Chatbots y agentes de IA susceptibles al phishing<\/h2>\n<p>Hoy en d\u00eda, muchas personas prefieren recurrir a los chatbots como ChatGPT o Gemini en lugar de los motores de b\u00fasqueda habituales. Pero \u00bfcu\u00e1les ser\u00edan los riesgos? Bueno, los modelos de lenguaje grandes se entrenan con datos de los usuarios. Y se sabe que los chatbots m\u00e1s populares <a href=\"https:\/\/www.netcraft.com\/blog\/large-language-models-are-falling-for-phishing-scams\" target=\"_blank\" rel=\"noopener nofollow\">sugieren sitios de phishing a los usuarios<\/a>. Cuando realizan b\u00fasquedas en la web, los agentes de IA se conectan a motores de b\u00fasqueda que tambi\u00e9n pueden contener enlaces de phishing.<\/p>\n<p>En un <a href=\"https:\/\/guard.io\/labs\/scamlexity-we-put-agentic-ai-browsers-to-the-test-they-clicked-they-paid-they-failed\" target=\"_blank\" rel=\"noopener nofollow\">experimento reciente<\/a>, los investigadores lograron enga\u00f1ar al agente de IA del navegador Comet de Perplexity con un correo electr\u00f3nico falso. El correo electr\u00f3nico supuestamente proced\u00eda de un administrador de inversiones de Wells Fargo, uno de los bancos m\u00e1s grandes del mundo. Los investigadores enviaron el correo electr\u00f3nico desde una cuenta de Proton Mail reci\u00e9n creada. Inclu\u00eda un enlace a una p\u00e1gina de phishing real que llevaba varios d\u00edas activa, pero que la Navegaci\u00f3n segura de Google a\u00fan no hab\u00eda marcado como maliciosa. Cuando se revis\u00f3 la bandeja de entrada del usuario, el agente de IA marc\u00f3 el mensaje como \u201ctarea pendiente del banco\u201d. Sin haber hecho m\u00e1s comprobaciones, sigui\u00f3 el enlace de phishing, abri\u00f3 la p\u00e1gina de inicio de sesi\u00f3n falsa y, luego, le pidi\u00f3 al usuario que introdujera sus credenciales. \u00a1Hasta le ayud\u00f3 a completar el formulario! B\u00e1sicamente, la IA aval\u00f3 la p\u00e1gina de phishing. El usuario nunca vio la direcci\u00f3n de correo electr\u00f3nico sospechosa del remitente ni el enlace de phishing en s\u00ed. En su lugar, fue redirigido inmediatamente a una p\u00e1gina de introducci\u00f3n de contrase\u00f1a que le hab\u00eda proporcionado este \u201cservicial\u201d asistente de IA.<\/p>\n<p>En el mismo experimento, los investigadores usaron una plataforma de desarrollo web con tecnolog\u00eda de IA llamada <a href=\"https:\/\/lovable.dev\/\" target=\"_blank\" rel=\"noopener nofollow\">Loveable<\/a> para crear un sitio web falso que imitaba a una tienda Walmart. Despu\u00e9s, visitaron el sitio en Comet, que es algo que un usuario desprevenido podr\u00eda hacer f\u00e1cilmente si se dejara enga\u00f1ar por un enlace o un anuncio de phishing. Le pidieron al agente de IA que comprara un Apple Watch. El agente analiz\u00f3 el sitio falso, encontr\u00f3 una oferta que era una \u201cganga\u201d, a\u00f1adi\u00f3 el reloj al carrito, introdujo la direcci\u00f3n y la informaci\u00f3n de la tarjeta bancaria almacenada en el navegador y complet\u00f3 la \u201ccompra\u201d sin pedir ninguna confirmaci\u00f3n. Si se hubiera tratado de un sitio fraudulento real, el usuario habr\u00eda perdido una buena cantidad de dinero a la vez que entregaba sus datos bancarios en bandeja de plata a los estafadores.<\/p>\n<p>Por desgracia, los agentes de IA se comportan actualmente como novatos ingenuos en la web, por lo que caen f\u00e1cilmente en la ingenier\u00eda social. Anteriormente, ya hemos analizado en detalle los <a href=\"https:\/\/www.kaspersky.es\/blog\/ai-browser-security-privacy-risks\/31416\/\" target=\"_blank\" rel=\"noopener\">riesgos de integrar la IA en los navegadores y c\u00f3mo minimizarlos<\/a>. Pero, como recordatorio, para evitar convertirte en la pr\u00f3xima v\u00edctima de un asistente demasiado confiado, debes evaluar de forma cr\u00edtica la informaci\u00f3n que te proporciona, limitar los permisos que concedes a los agentes de IA e instalar una <strong><a href=\"https:\/\/www.kaspersky.es\/premium?icid=es_bb2022-kdplacehd_acq_ona_smm__onl_b2c_kdaily_lnk_sm-team___kprem___\" target=\"_blank\" rel=\"noopener\">soluci\u00f3n de seguridad fiable<\/a><\/strong>\u00a0que bloquee el acceso a sitios maliciosos.<\/p>\n<h2>Sitios web de phishing generados por IA<\/h2>\n<p>Los d\u00edas de los sitios de phishing incompletos, mal dise\u00f1ados y llenos de anuncios indiscretos han quedado atr\u00e1s. Los estafadores modernos se esfuerzan por crear falsificaciones realistas que utilizan el protocolo HTTPS, muestran acuerdos de usuario y avisos de consentimiento de cookies, y tienen dise\u00f1os razonablemente buenos. Las herramientas con tecnolog\u00eda de IA han hecho que la creaci\u00f3n de este tipo de sitios web sea mucho m\u00e1s barata y r\u00e1pida, por no decir que es casi instant\u00e1nea. Es posible encontrar un enlace a uno de estos sitios en cualquier lugar: en un mensaje de texto, en un correo electr\u00f3nico, en las redes sociales o incluso en los resultados de b\u00fasqueda.<\/p>\n<div id=\"attachment_31501\" style=\"width: 1034px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2025\/10\/06123548\/ai-phishing-and-scams-3-1.png\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-31501\" class=\"wp-image-31501 size-large\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/88\/2025\/10\/06123548\/ai-phishing-and-scams-3-1-1024x544.png\" alt=\"Formularios de entrada de credenciales en sitios fraudulentos que imitan a Tesla y Pantene\" width=\"1024\" height=\"544\"><\/a><p id=\"caption-attachment-31501\" class=\"wp-caption-text\">Formularios de entrada de credenciales en sitios fraudulentos que imitan a Tesla y Pantene<\/p><\/div>\n<h4>C\u00f3mo detectar un sitio de phishing<\/h4>\n<ul>\n<li>Comprueba si hay errores de escritura en la URL, el t\u00edtulo y el contenido.<\/li>\n<li>Averigua cu\u00e1nto tiempo lleva registrado el dominio del sitio web. Puedes comprobarlo <a href=\"https:\/\/www.whatsmydns.net\/domain-age\" target=\"_blank\" rel=\"noopener nofollow\">aqu\u00ed<\/a>.<\/li>\n<li>Presta atenci\u00f3n al lenguaje que se usa. \u00bfEl sitio intenta asustarte o acusarte de algo? \u00bfIntenta atraerte o presionarte para que act\u00faes? Cualquier manipulaci\u00f3n emocional es una gran se\u00f1al de alarma.<\/li>\n<li>Activa la <a href=\"https:\/\/support.kaspersky.com\/es\/kaspersky-for-windows\/21.22\/70888\" target=\"_blank\" rel=\"noopener\">funci\u00f3n de comprobaci\u00f3n de enlaces en <\/a><a href=\"https:\/\/www.kaspersky.es\/home-security?icid=es_kdailyplacehold_acq_ona_smm__onl_b2c_blo_lnk_sm-team______\" target=\"_blank\" rel=\"noopener\">cualquiera de nuestras soluciones de seguridad<\/a>.<\/li>\n<li>Si tu navegador te advierte de una conexi\u00f3n no segura, abandona el sitio. Los sitios leg\u00edtimos usan el protocolo HTTPS.<\/li>\n<li>Busca el nombre del sitio web en l\u00ednea y compara la URL que tienes con la que aparece en los resultados de b\u00fasqueda. Ten cuidado, ya que es posible que los motores de b\u00fasqueda muestren enlaces de phishing patrocinados en la parte superior de la p\u00e1gina. Aseg\u00farate de que no haya ninguna etiqueta que diga \u201cAnuncio\u201d o \u201cPatrocinado\u201d junto al enlace.<\/li>\n<\/ul>\n<blockquote><p>Obt\u00e9n m\u00e1s informaci\u00f3n sobre c\u00f3mo usar la IA de forma segura:<\/p>\n<ul>\n<li><a href=\"https:\/\/www.kaspersky.es\/blog\/scam-with-deepfakes-in-instagram-facebook-whatsapp\/31273\/\" target=\"_blank\" rel=\"noopener\">C\u00f3mo las redes sociales de Meta se convirtieron en una plataforma para estafas de inversi\u00f3n<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.es\/blog\/fake-bank-payments\/31005\/\" target=\"_blank\" rel=\"noopener\">Te espera un gran pago de nuevo<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.es\/blog\/trojans-disguised-as-deepseek-grok-clients\/30809\/\" target=\"_blank\" rel=\"noopener\">Troyanos que se hacen pasar por clientes de DeepSeek y Grok<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.es\/blog\/how-deepfakes-threaten-kyc\/30292\/\" target=\"_blank\" rel=\"noopener\">C\u00f3mo los estafadores eluden la verificaci\u00f3n de identidad del cliente mediante deepfakes<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.es\/blog\/audio-deepfake-technology\/29025\/\" target=\"_blank\" rel=\"noopener\">Deepfakes de voz: no creas todo lo que escuchas<\/a><\/li>\n<\/ul>\n<\/blockquote>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-geek\">\n","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial les ha dado a los estafadores un nuevo conjunto de herramientas para el enga\u00f1o, como la generaci\u00f3n de deepfakes y la configuraci\u00f3n instant\u00e1nea de sitios web de phishing o campa\u00f1as fraudulentas por correo electr\u00f3nico. Analizamos las \u00faltimas tendencias de IA en materia de phishing y estafas, y c\u00f3mo mantenerte a salvo.<\/p>\n","protected":false},"author":2710,"featured_media":31492,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1348],"tags":[378,3064,561,1307,43],"class_list":{"0":"post-31490","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"tag-amenazas","9":"tag-deepfakes","10":"tag-estafa","11":"tag-ia","12":"tag-phishing"},"hreflang":[{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ai-phishing-and-scams\/31490\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ai-phishing-and-scams\/29593\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ai-phishing-and-scams\/24689\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ai-phishing-and-scams\/29518\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ai-phishing-and-scams\/28613\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ai-phishing-and-scams\/40564\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ai-phishing-and-scams\/13848\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ai-phishing-and-scams\/54445\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ai-phishing-and-scams\/23254\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ai-phishing-and-scams\/32763\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ai-phishing-and-scams\/29682\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ai-phishing-and-scams\/35445\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ai-phishing-and-scams\/35073\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.es\/blog\/tag\/phishing\/","name":"phishing"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/31490","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/users\/2710"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/comments?post=31490"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/31490\/revisions"}],"predecessor-version":[{"id":31505,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/31490\/revisions\/31505"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media\/31492"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media?parent=31490"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/categories?post=31490"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/tags?post=31490"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}