5 cosas que aprendimos en Kaspersky NEXT

El evento Kaspersky NEXT de este año se centró en la IA, la equidad de género y la robótica social.

El evento Kaspersky NEXT de este año acogió los debates y las investigaciones de algunos de los expertos más sobresalientes en el campo de la ciberseguridad y la inteligencia artificial. Desde el aprendizaje automático y la IA, hasta la seguridad de IdC, aquí os dejamos cinco cosas que hemos aprendido acerca del evento de este año, que tuvo lugar el 14 de octubre en Lisboa.

Un mundo más justo con la IA

¿Te has puesto a pensar cuántas decisiones han tomado hoy las máquinas? ¿O cuántas de esas decisiones se basaron en el género, la raza o el origen? Lo más probable es que ni siquiera te hayas percatado de la cantidad de decisiones que toma la inteligencia artificial en lugar de un ser humano. Kriti Sharma, fundadora de AI for Good, explicó que los algoritmos se utilizan todo el tiempo para tomar decisiones acerca de quiénes somos y lo que deseamos.

Kriti también opinó que lo que realmente necesitamos para mejorar la inteligencia artificial es unir a la gente de todo origen, género y origen étnico. Aquí puedes ver su Ted Talk sobre cómo los sesgos humanos influyen en las decisiones de las máquinas:

El efecto de asignarle un género a la IA

Piensa en Alexa, Siri y Cortana. ¿Qué tienen todas ellas en común? Utilizan voces femeninas y se han diseñado para ser sirvientas sumisas. ¿Por qué? ¿No estará la tecnología reforzando los estereotipos? Estos fueron los temas de investigación que trataron dos mesas de debate sobre el género y la IA. Según han determinado varios estudios, los asistentes digitales tienen voces femeninas porque hacen sentir más cómodos a los usuarios. ¿Nos encontramos ante otro reflejo de la sociedad?

Entonces, ¿qué se puede hacer para luchar contra la desigualdad de géneros en la IA? Tal vez usar una voz neutra o quizás crear un género para los robots y la IA. Además de abordar este problema (mencionado arriba), es importante que haya más diversidad en los equipos que trabajan en la IA, ya que reflejaría mejor la diversidad de los usuarios a los que sirve.

https://twitter.com/kaspersky/status/1183739717965230087

Las personas confían más en los robots que en otras personas

Un robot social es un sistema de inteligencia artificial que interactúa con humanos y otros robots y, a diferencia de Siri o Cortana, con una interfaz física. Tony Balpaeme, profesor de robótica en la Universidad de Gante, explicó los retos en torno a las interacciones entre robots y humanos y los potenciales problemas a los que nos enfrentaremos a medida que estos se vuelvan más predominantes.

Balpaeme describió algunos de los experimentos científicos que él y su equipo han realizado. Por ejemplo, analizaron las capacidades de humanos y robots para extraer información confidencial (fecha de nacimiento, domicilio o ciudad de la infancia, color preferido, etc.) que se podría utilizar para restablecer contraseñas. Lo interesante del asunto es que las personas confían más en los robots que en otras personas, por lo que son más propensas a entregarles su información confidencial.

Asimismo, el profesor mostró un experimento sobre la intrusión física. Un grupo de personas, cuya misión era asegurar un edificio o área, dejó entrar al robot al perímetro. No se puede dar por hecho que un robot sea seguro, pero los humanos asumen que es inofensivo, lo cual es una tendencia muy aprovechable. Puedes leer más acerca de la robótica social y los experimentos relacionados en Securelist.

La IA creará  deepfakes muy convincentes

David Jacoby, miembro de Kaspersky GReAT, habló sobre la ingeniería social: los chatbots, la IA y las amenazas automatizadas. Con el tiempo, las aplicaciones de reconocimiento facial y de voz podrían explotarse mediante la ingeniería social y otros métodos clásicos.

Asimismo, Jacoby habló sobre los deepfakes, esos vídeos falsos en el que se cambia la cara o la voz del protagonista y que cada vez son más complicados de detectar. Resulta muy preocupante la forma en la que podrían afectar en futuras elecciones.

Sin embargo, la preocupación principal es la confianza. Una vez que la tecnología se perfeccione, ¿en quién confiarás? David señaló que la solución consiste en concienciar: la educación es fundamental así como una nueva tecnología para ayudar a los usuarios a detectar los vídeos falsos.

El estado de la seguridad en robótica

Dmitry Galov, otro miembro de Kaspersky GReAT, habló del ROS (siglas en inglés de sistema operativo robótico), un marco flexible para escribir software robótico. Como muchos otros sistemas, no se diseñó el ROS teniendo en mente su seguridad y, naturalmente, incluye problemas de seguridad significativos. Los diseñadores deben resolver estos problemas antes de que los productos basados en ROS, tales como robots sociales y coches autónomos, salgan de las aulas universitarias directamente hacia los consumidores. De hecho, se está desarrollando a conciencia una nueva versión del ROS. Puedes leer más al respecto en el informe de Galov.

Consejo adicional: usa condones USB

Marco Preuss y Dan Demeter, miembros de Kaspersky GReAT, hablaron sobre cómo protegerse de los hackeos durante los viajes de negocios. ¿Te has puesto a pensar que podría haber cámaras escondidas, micrófonos ocultos y espejos de doble cara  en la habitación de tu hotel?

Para los que sean un poco paranoicos, esta publicación incluye algunos consejos de seguridad para los viaje, de Preuss y Demeter, quienes también hablaron sobre la importancia (si eres un paranoico de verdad) de usar un “condón” USB; sí, esto es real y su uso es similar a los normales: si vas a cargar tu teléfono en un puerto USB desconocido, más vale proteger tu dispositivo con este pequeño artilugio. Y, por suerte, a diferencia de los condones normales, estos son reutilizables.

Para ponerte al corriente de todo lo que pasó en el evento, visita nuestra cuenta de Twitter.

Consejos