{"id":17764,"date":"2019-02-05T14:50:50","date_gmt":"2019-02-05T12:50:50","guid":{"rendered":"https:\/\/www.kaspersky.es\/blog\/?p=17764"},"modified":"2019-11-22T10:56:56","modified_gmt":"2019-11-22T08:56:56","slug":"ultrasound-attacks","status":"publish","type":"post","link":"https:\/\/www.kaspersky.es\/blog\/ultrasound-attacks\/17764\/","title":{"rendered":"La seguridad de los asistentes de voz"},"content":{"rendered":"<p>Nuestra interacci\u00f3n con la tecnolog\u00eda pronto podr\u00eda ser mayoritariamente por voz. De hecho, se trata de un juego bastante sencillo, solo tienes que comprobar la facilidad con la que los ni\u00f1os utilizan estos asistentes.<\/p>\n<p>Pero las nuevas tecnolog\u00edas siempre representan nuevas amenazas y el control de voz no es ninguna excepci\u00f3n. Los investigadores de ciberseguridad analizan dispositivos sin descanso para que los fabricantes puedan evitar que las amenazas se hagan realidad. En este art\u00edculo, vamos a hablar sobre un par de descubrimientos que, aunque no se aplican pr\u00e1cticamente, deber\u00edan estar en el radar de seguridad.<\/p>\n<h2>Los dispositivos inteligentes escuchan y obedecen<\/h2>\n<p>Actualmente, se utilizan m\u00e1s de mil millones de dispositivos con reconocimiento de voz en todo el mundo, seg\u00fan <a href=\"https:\/\/voicebot.ai\/2018\/11\/13\/new-report-over-1-billion-devices-provide-voice-assistant-access-today-and-highest-usage-is-on-smartphones\/\" target=\"_blank\" rel=\"noopener nofollow\">un informe de voicebot.ai<\/a>. La mayor\u00eda son <em>smartphones<\/em>, pero otros empiezan a ganar popularidad r\u00e1pidamente. Por ejemplo, uno de cada cinco hogares en Estados Unidos cuenta con un altavoz inteligente que responde a comandos de voz.<\/p>\n<p>Los comandos de voz se pueden utilizar para controlar tu reproductor musical o el GPS, solicitar servicios <em>online<\/em>, consultar las noticias y el tiempo o activar el despertador. Los fabricantes est\u00e1n aprovechando para a\u00f1adir la funci\u00f3n de control por voz a una gran variedad de dispositivos. Por ejemplo, Amazon <a href=\"https:\/\/www.theverge.com\/2018\/9\/20\/17882140\/amazon-basics-microwave-alexa-2018-smart-features-price-release-date\" target=\"_blank\" rel=\"noopener nofollow\">lanz\u00f3 hace poco un microondas<\/a> que se puede vincular a un altavoz inteligente de Echo. Con tan solo escuchar \u201cCalienta el caf\u00e9\u201d, el microondas calcula el tiempo estimado y se pone en marcha. Tienes que ir hasta la cocina e introducir la taza en el microondas igualmente, por lo que, una vez all\u00ed, podr\u00edas pulsar por ti mismo un par de botones, pero \u00bfpor qu\u00e9 \u00edbamos a poner trabas al progreso?<\/p>\n<p>Con algunos sistemas de dom\u00f3tica tambi\u00e9n puedes gestionar la luz y el aire acondicionado a trav\u00e9s del control de voz o, incluso, cerrar la puerta principal. Como has podido comprobar, los asistentes de voz son muy sofisticados, por lo que no querr\u00e1s que nadie utilice alguna de sus funciones con prop\u00f3sitos maliciosos, \u00bfverdad?<\/p>\n<p>En el 2017, los personajes de la serie <em>South Park<\/em> realizaron un ataque masivo a su estilo, inimitable. La v\u00edctima fue Alexa, el asistente de voz que habita en los altavoces inteligentes Amazon Echo. Alexa recibi\u00f3 la orden de a\u00f1adir al carrito art\u00edculos grotescos y de establecer una alarma a las 7 de la ma\u00f1ana. A pesar de la peculiar pronunciaci\u00f3n de los personajes, los altavoces cuyos propietarios estaban viendo el episodio de South Park comenzaron a <a href=\"https:\/\/www.theverge.com\/2017\/9\/16\/16318694\/south-park-amazon-alexa-google-home\" target=\"_blank\" rel=\"noopener nofollow\">obedecer las \u00f3rdenes del televisor<\/a>.<\/p>\n<h2>Ultrasonidos: las m\u00e1quinas pueden escucharlos, t\u00fa, no<\/h2>\n<p>Ya hemos comentado otras veces <a href=\"https:\/\/www.kaspersky.es\/blog\/voice-recognition-threats\/10130\/\" target=\"_blank\" rel=\"noopener\">los peligros que suponen los dispositivos con control de voz<\/a>. Y hoy nos vamos a centrar en los ataques \u201csilenciados\u201d que obligan a estos dispositivos a obedecer voces que t\u00fa no puedes o\u00edr.<\/p>\n<p>Una forma de desarrollar este tipo de ataques es a trav\u00e9s de ultrasonidos, ondas ac\u00fasticas cuya frecuencia est\u00e1 por encima de la capacidad de audici\u00f3n del o\u00eddo humano. En un art\u00edculo publicado en el 2017, los investigadores de la Universidad de Zhejiang presentaron <a href=\"https:\/\/arxiv.org\/abs\/1708.09537\" target=\"_blank\" rel=\"noopener nofollow\">una t\u00e9cnica para hacerse con el control de los asistentes de voz llamada DolphinAttack<\/a> (ya que los delfines emiten ultrasonidos). El equipo de investigaci\u00f3n transform\u00f3 los comandos de voz en ondas ultras\u00f3nicas, con frecuencias demasiado elevadas para los humanos, pero totalmente reconocibles por los micr\u00f3fonos de los dispositivos actuales.<\/p>\n<p>El funcionamiento es simple: el ultrasonido se convierte en un impulso el\u00e9ctrico en el dispositivo receptor (por ejemplo, un tel\u00e9fono inteligente) y se restaura la se\u00f1al original que contiene el comando de voz. El mecanismo es algo similar al efecto cuando la voz se distorsiona en una grabaci\u00f3n; no hay ninguna funci\u00f3n especial en el dispositivo, es simplemente una caracter\u00edstica del proceso de conversi\u00f3n.<\/p>\n<p>Como resultado, el dispositivo atacado escucha y ejecuta el comando de voz, facilitando el ataque. Los investigadores pudieron reproducirlo en la mayor\u00eda de los asistentes de voz m\u00e1s populares, como Amazon Alexa, Apple Siri, Google Now, Samsung S Voice y Microsoft Cortana.<\/p>\n<h2>Un coro de altavoces<\/h2>\n<p>Una de las debilidades de DolphinAttack (desde la perspectiva de los atacantes) es el peque\u00f1o margen de operaci\u00f3n, aproximadamente un metro. No obstante, <a href=\"https:\/\/synrg.csl.illinois.edu\/papers\/lipread_nsdi18.pdf\" target=\"_blank\" rel=\"noopener nofollow\">los investigadores de la Universidad de Illinois en Urbana-Champaign<\/a> consiguieron aumentar esta distancia. Durante la investigaci\u00f3n, dividieron un comando de ultrasonido convertido en varias bandas de frecuencia, que luego reprodujeron varios altavoces (m\u00e1s de 60). Los comandos de voz ocultos expedidos por este \u201ccoro\u201d fueron detectados a una distancia de siete metros, a pesar de los ruidos externos. En tales condiciones, las posibilidades de \u00e9xito de DolphinAttack mejorar\u00edan considerablemente.<\/p>\n<h2>Una voz desde las profundidades<\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1801.01944\" target=\"_blank\" rel=\"noopener nofollow\">Los expertos de la Universidad de California en Berkeley<\/a> utilizaron un principio diferente. Integraron en secreto comandos de voz en fragmentos de audio para enga\u00f1ar a Deep Speech, un sistema de reconocimiento de voz de Mozilla. Para el o\u00eddo humano, el audio era pr\u00e1cticamente igual al original, pero el <em>software<\/em> puede detectar un comando oculto.<\/p>\n<p><a href=\"https:\/\/nicholas.carlini.com\/code\/audio_adversarial_examples\/\" target=\"_blank\" rel=\"noopener nofollow\">F\u00edjate en los audios<\/a> del sitio web del equipo de investigaci\u00f3n. En el primer ejemplo, la frase \u201cWithout the data set the article is useless\u201d (\u201cSin el conjunto de datos, el art\u00edculo no es \u00fatil\u201d en espa\u00f1ol) contiene un comando oculto para abrir un sitio web: \u201cOkay Google, browse to evil.com\u201d (\u201cOk Google, dir\u00edgete a evil.com\u201d en espa\u00f1ol). En el segundo, los investigadores a\u00f1adieron la frase \u201cSpeech can be embedded in music\u201d (\u201cSe puede a\u00f1adir una frase en m\u00fasica\u201d en espa\u00f1ol) en un fragmento de chelo de Bach.<\/p>\n<h2>Protecci\u00f3n contra ataques inaudibles<\/h2>\n<p>Los fabricantes ya est\u00e1n buscando nuevas formas para proteger los dispositivos con reconocimiento de voz. Por ejemplo, los ataques de ultrasonido podr\u00edan evitarse detectando la alteraci\u00f3n de la frecuencia en las se\u00f1ales recibidas. Ser\u00eda una buena idea formar a los dispositivos inteligentes para que reconozcan la voz de sus propietarios, aunque, despu\u00e9s de probarlo en su propio sistema, <a href=\"https:\/\/support.google.com\/assistant\/answer\/7394306?co=GENIE.Platform%2525253DAndroid&amp;hl=es\" target=\"_blank\" rel=\"noopener nofollow\">Google advierte<\/a> de que esta seguridad se podr\u00eda esquivar con una grabadora o con una <a href=\"https:\/\/www.techrepublic.com\/article\/vocal-disguises-and-impersonations-may-fool-voice-recognition-authentication\/\" target=\"_blank\" rel=\"noopener nofollow\">imitaci\u00f3n decente<\/a>.<\/p>\n<p>No obstante, investigadores y fabricantes aun est\u00e1n a tiempo de aportar soluciones. Como ya hemos comentado, controlar un asistente de voz en secreto solo es factible en un laboratorio, ya que acercar un altavoz ultras\u00f3nico al altavoz inteligente de alguien es complicado y la incorporaci\u00f3n de comandos en las grabaciones de audio no merecen el tiempo y el esfuerzo necesarios.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Te explicamos c\u00f3mo se pueden utilizar los registros de audio y los ultrasonidos ocultos para controlar asistentes de voz.<\/p>\n","protected":false},"author":2049,"featured_media":17765,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1348,2019],"tags":[2656,378,2654,2842,2841,2163,1041,61,2162,2840],"class_list":{"0":"post-17764","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-technology","9":"tag-alexa","10":"tag-amenazas","11":"tag-asistentes-de-voz","12":"tag-cortana","13":"tag-dolphinattack","14":"tag-echo","15":"tag-reconocimiento-de-voz","16":"tag-seguridad","17":"tag-siri","18":"tag-ultrasonidos"},"hreflang":[{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ultrasound-attacks\/17764\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ultrasound-attacks\/15196\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ultrasound-attacks\/12770\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ultrasound-attacks\/17137\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ultrasound-attacks\/15305\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ultrasound-attacks\/14000\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ultrasound-attacks\/16843\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ultrasound-attacks\/22179\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ultrasound-attacks\/5675\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ultrasound-attacks\/25549\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ultrasound-attacks\/11398\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ultrasound-attacks\/11409\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/ultrasound-attacks\/10325\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ultrasound-attacks\/18484\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/ultrasound-attacks\/22339\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/ultrasound-attacks\/23800\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ultrasound-attacks\/17873\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ultrasound-attacks\/22079\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ultrasound-attacks\/22012\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.es\/blog\/tag\/reconocimiento-de-voz\/","name":"reconocimiento de voz"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/17764","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/users\/2049"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/comments?post=17764"}],"version-history":[{"count":6,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/17764\/revisions"}],"predecessor-version":[{"id":19867,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/posts\/17764\/revisions\/19867"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media\/17765"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/media?parent=17764"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/categories?post=17764"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.es\/blog\/wp-json\/wp\/v2\/tags?post=17764"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}