Por qué no basta con el aprendizaje automático

¿Artificial? Mucho. ¿Inteligente? Opina tú mismo.

Cada día que pasa, las tecnologías conectadas invaden nuestras vidas más y más. Puede que no nos demos cuenta de lo normal que se ha vuelto pedirle a Siri, Alexa o Google que interprete nuestra experiencia humana o que esperemos que nuestros coches respondan a las normas de tráfico lo bastante rápido para no tener un accidente. A algunos aún nos preocupan tecnologías como la de las cámaras de vigilancia que usan sus imágenes con software de reconocimiento facial, pero eso a muchos no les importa.

Hoy por hoy, es fácil reírse de los fallos de la IA (Inteligencia Artificial) porque, a fin de cuentas, tienen gracia (solo hay que olvidarse de las posibles consecuencias fatales). Pero creemos que a medida que los dispositivos sigan adelante y el malware continúe evolucionando, eso cambiará. Veamos algunos incidentes causados por fallos de la IA.

La debacle de las casas de muñecas

Este es un ejemplo clásico: A principios de año, en el telediario se habló de una reacción en cadena que sucedió en California. Se trataba de un accidente de IA basado en otro accidente de IA. Lo que sucedió fue que la noticia de que un Amazon Echo compró por error una casa de muñecas provocó que un montón de Amazon Echos (que escuchaban todo atentamente, como de costumbre, sin distinguir la voz de su dueño de otras voces) compraran por error un montón de casas de muñecas.

El anuncio de comida rápida

Burger King intentó usar el mismo bug mediante sus anuncios y, en cierto sentido, lo logró. El verdadero problema fue un fallo para anticipar el comportamiento humano: usaron un comando para que Google Home iniciara una búsqueda en Wikipedia sobre la famosa hamburguesa Whopper, pero la cadena de comida rápida no anticipó que los usuarios modificarían la entrada y eso es justo lo que muchos hicieron.

La confusión de Cortana

No podemos hablar solo del asistente de Microsoft, pues el de Apple, Siri, también tiene su hilo de fallos en Reddit, pero el de Google ha acumulado muchos errores graciosos (y lo son aún más si suceden frente a una multitud). Con este, parece ser que Cortana no comprende un acento no americano (o puede que la rápida y natural manera de hablar le sacara de quicio).

Engañando al reconocimiento facial

A tus amigos puede que no les engañe un par de gafas, pero un equipo de investigadores de la universidad Carnegie Mellon demostraron que cambiar esa pequeña parte de ti es suficiente para que, a los ojos de la máquina, seas una persona diferente. Lo mejor es que los investigadores pudieron no solo eludir el reconocimiento facial, sino también imitar a una persona en concreto al imprimir algunos patrones sobre el marco de las gafas.

Los investigadores lograron hacerse pasar por famosos.

El contratiempo con las señales de tráfico

¿Y qué hay del reconocimiento de las señales de tráfico por parte de los coches autónomos? ¿Es mejor que el reconocimiento facial? Pues… no. Otro grupo de investigadores demostró que el reconocimiento de señales también puede fallar. Los pequeños cambios que una persona ignoraría hicieron que el sistema de aprendizaje automático clasificara por error la señal de “STOP” por la de “límite de velocidad a 45”. Y no se trató solo de un error aleatorio, sino que sucedió el 100 % de las condiciones de la prueba.

La maquina reconoció tres de estas imágenes retocadas como “límite de velocidad a 45” y la última como “Stop”.

El panda invisible

¿Cuánto hay que alterar la información de entrada para engañar al aprendizaje automático? Te sorprendería lo sutil que puede llegar a ser este cambio. Para el ojo humano, no hay diferencia entre las dos imágenes siguientes, mientras que una máquina estaba del todo segura de que eran objetos completamente diferentes (un panda y un gibón, respectivamente). Curiosamente, la máquina reconocía el ruido que se añadió a la foto como nematodo.

La terrible Tay

El chatbot experimental de Microsoft, una IA llamada Tay.ai, en teoría tenía que imitar a una adolescente y aprender de sus interacciones con las redes sociales. Pero resultó que los humanos somos monstruos y Tay se convirtió en una nazi. La IA puede crecer, pero su calidad y características dependen de los humanos.

El mayor error hasta la fecha, y puede que el más conocido, viene de Tesla, pero no podemos culpar al sistema, ya que, a pesar de llamarse piloto automático, este no debe tener el control total de la conducción. La investigación reveló que el conductor no actuó correctamente al ignorar las advertencias como las de mantener las manos puestas en el volante o la de que se estaba superando el límite de velocidad permitido. Además, no actuó durante los más de 7 segundos en los que el camión que le mató fue visible.

Puede que un piloto automático hubiera podido evitar el accidente, pero, a estas alturas, lo que sabemos en realidad es que no excedió sus parámetros, y eso es algo que esperamos que no haga un software.

Por último, aunque usemos aprendizaje automático, cuyo software se vuelve más inteligente con la experiencia, la inteligencia artificial nunca será como la inteligencia humana. Las máquinas son rápidas, coherentes e incansables, lo que complementa a la intuición e inteligencia humanas.

Por ello, nuestro planteamiento, al que llamamos HuMachine, tiene lo mejor de ambos mundos: la rapidez y exactitud de la inteligencia artificial de una programación avanzada incrementada por la experiencia de los profesionales de la ciberseguridad que luchan contra el malware y protegen a los usuarios, a las empresas y a las infraestructuras de sistemas para que funcionen a salvo.

Consejos