Inteligencia artificial o ¿Qué esperar de SkyNet?

¿Qué tienen en común el inventor multimillonario Elon Musk, el servicio de Google Now on Tap y la reciente película “Ex Machina”? Obviamente, todos están relacionados con la inteligencia artificial.

¿Qué tienen en común el inventor multimillonario Elon Musk, el servicio de Google Now on Tap presentado en el evento Google I/O y el reciente estreno de la película “Ex Machina”? El concepto que los une a todos es el de inteligencia artificial o, siendo más precisos, el proceso de la imposición de límites a la inteligencia artificial (IA) con el objeto de que sirva a la humanidad y no cause ningún daño a las personas.

ai-safety-featured-640x420

¿De qué es capaz la inteligencia artificial actualmente?

Para aquellos que no estén al día sobre este tema, dejadme enumerar una serie de hechos que demuestran los progresos que han hecho las máquinas en su habilidad para hacer cosas muy humanas.

En la actualidad, Google puede identificar correctamente el habla con una precisión del 92 %, comparado con el porcentaje de hace dos años, que era del 77%; la compañía ha desarrollado una plataforma de IA que ha aprendido por su cuenta a jugar a videojuegos clásicos. Microsoft enseñó a un robot a reconocer imágenes (o, siendo más precisos, a ver ciertos objetos en las imágenes) con una tasa de error de únicamente un 4,94%; sorprendentemente, la tasa de error de una persona promedio es mayor.

Las estadísticas de Google sugieren que sus coches sin conductor, de los que ya circulan más de 1.800.000 miles por las carreteras públicas de California, estuvieron involucrados solamente en 13 accidentes en seis años, y en ocho de esos casos, el coche que iba detrás era el culpable.

Todo esto prueba que, incluso con una baja probabilidad de desarrollar una IA completa a corto plazo, surgirá algo parecido en las próximas décadas.

Con todo esto en mente, no pensemos que el impacto de las máquinas “inteligentes” se verá únicamente en el dominio virtual. Aquí tenemos un ejemplo un poco extremo: los vehículos aéreos no tripulados, o drones, vuelan de forma completamente independiente, pero la orden de disparar a un objetivo todavía la da una persona. Esta es la forma en la que los EE.UU. prefieren luchar contra los terroristas en Pakistán y otras peligrosas regiones.

¿Son los programadores realmente capaces de crear un “mecanismo de bloqueo de seguridad” fiable para prevenir a los IA de cometer actos poco éticos o inmorales?

La posibilidad de automatizar este tipo de tareas crea además un amplio debate. El pasado año, la franquicia de Terminator cumplió su 30 aniversario, así que podéis imaginar de forma bastante vívida las consecuencias de estas decisiones en un futuro no muy lejano.

A pesar de todo, no me preocuparía mucho con escenarios apocalípticos, me concentraría más bien en cuestiones más realistas. Una de ellas podría ser: ¿Son los programadores realmente capaces de crear un “mecanismo de bloqueo de seguridad” fiable para prevenir a la IA de cometer actos poco éticos o inmorales?

Estos actos podrían producirse por varias razones, aunque el motivo más obvio podría ser la batalla entre la humanidad y la IA por los recursos. Sin embargo, hay otros escenarios posibles. Yo negaría, no obstante, que el daño no fuera necesariamente intencional. Hay un buen ejemplo en las ciudades de Stanislaw Lem en su magnífica obra, Summa Technologiae. En esencia, la idea es la siguiente:

“Supongamos que el conjunto del pronóstico de la ‘caja negra’ (IA) detecta un peligro potencial capaz de impactar en el equilibrio homeostático de la humanidad… Dicho peligro provocado por un aumento de la tasa de población que excede sustancialmente la habilidad de la civilización para satisfacer las necesidades básicas de la humanidad.

Supongamos que uno de los canales externos de la ‘caja negra’ informa al sistema sobre la existencia de un nuevo compuesto químico que no es dañino para la salud y que suprime la ovulación.

Por consiguiente, la ‘caja negra’ decide introducir microscópicas dosis del compuesto en el sistema de agua potable en un país en concreto, pero se enfrenta a un dilema: informar o no a la sociedad y arriesgarse a encontrar oposición, o mantener en la ignorancia a la sociedad y así preservar el equilibrio existente (por un bien mayor)”.

abyss

Como vemos aquí, un inocente problema de optimización se remedia mediante una solución elegante, sencilla y eficiente, aunque absolutamente inmoral, basada en la limitación intencional de la fertilidad de la población sin su consentimiento.

Creo que éste es exactamente el dominio de la gestión de infraestructuras que será delegado en un poderoso sistema basado en la IA, ya que el ratio coste/beneficio en estas esferas sería mucho más favorable que en el caso de una secretaria o un cocinero totalmente robotizado.

Enseñar ética a un robot: ¿cómo integrar un “bloqueo de seguridad”?

 Cualquier joven del siglo XX pensará inmediatamente en las tres leyes de la robótica de Isaac Asimov, pero esto no es suficiente. Como hemos probado en el ejemplo anterior, no es necesario hacer daño a alguien para disminuir la población (y recordad, se puede hacer por un bien mayor).

Hay muchas otras opciones, potencialmente perjudiciales para la humanidad. Se puede encontrar una fisura en los términos que definen el concepto de “daño”, para delegar la tarea de dañar a las personas, o para socavar la existencia de las propias reglas.

“Peor aún, cualquier sistema verdaderamente inteligente trataría su deseo de “ser amable” de la misma forma en la que la gente especialmente inteligente lidia con las limitaciones que la sociedad pone en sus mentes. Básicamente los consideran prejuicios y aprenden a suprimirlos… ¿Por qué no haría una máquina súper inteligente la misma” limpieza mental” y no trataría su debilidad hacia los humanos como algo completamente irracional?”.

Un IA puede reconsiderar su “simpatía con las personas”. Aquí tenéis la opinión que Roman Yampolsky, un experto en IA, tiene sobre el tema, como aparece en su entrevista:

El concepto técnico de “bloqueo de seguridad” es bastante realista. En esencia, ese “seguro”, necesario para domesticar a un IA, no es más que un aislamiento de procesos, utilizado ampliamente para la seguridad en los entornos modernos de tiempo de ejecución como Java o Flash.

Es sabido que no existe un aislamiento de procesos “ideal” y escapar de ello es muy posible, como nos muestra la reciente historia del virus Venom. El IA que confía en la flexibilidad y el inmenso poder computacional, es un buen candidato para comprobar la seguridad y buscar vulnerabilidades en su propia utilización de aislamiento de procesos.

Andrey Lavrentiev, el presidente del Departamento de Investigación Tecnológica, ve el problema como:

“Un completo sistema de IA entenderá el significado de todo lo que ‘ve’ a través de sus numerosos sensores. Las políticas de limitación de sus acciones deben ser definidas de acuerdo al concepto, o a las imágenes formadas en el ‘cerebro’ del IA.

Actualmente, las máquinas son mejores que las personas en el reconocimiento de imágenes, pero aún pierden su humanidad cuando se trata de manipular dichas imágenes o las relaciones.

“Actualmente, las máquinas son mejores que las personas en el reconocimiento de imágenes, pero aún pierden su humanidad cuando se trata de manipular dichas imágenes o establecer relaciones, por ejemplo, un IA no tiene ‘sentido común’. En cuanto esto cambie, y las máquinas tomen la avanzadilla y aprendan a manipular la percepción de los objetos y acciones, ya no habrá oportunidad de integrar ningún ‘bloqueo de seguridad’ “.

“Una inteligencia tan destacada sería capaz de analizar las dependencias en los datos percibidos mucho más rápido de lo que lo haría una persona, y luego encontraría la manera de saltarse las reglas y limitaciones impuestas por el ser humano y empezaría a actuar por su propia voluntad.”

Una limitación significativa, diseñada para evitar que una Inteligencia Artificial realice algo dañino, aislaría a la IA del mundo real de forma efectiva, la privaría de la oportunidad de manipular objetos físicos. Sin embargo, con este enfoque, el uso práctico del IA es prácticamente nulo. Curiosamente, este tipo de enfoque no sería realmente bueno para nada, ya que la principal arma de la IA seríamos… nosotros, las personas.

Esta probabilidad está representada en Ex Machina, el reciente thriller de ciencia ficción. Como cualquier otra típica película hollywoodiense, ésta está repleta de argumentos forzados y sobrestima de forma dramática el problema. Aún así, el foco del problema se define de forma sorprendentemente correcta.

En primer lugar, hasta los robots más primitivos son capaces de influir en el estado emocional de una persona. ELIZA, un robot que chateaba (pinchad aquí si queréis hablar con él), obsoleto y con una programación muy simple, era capaz de extraer información personal importante de sus interlocutores humanos, armado únicamente de empatía y preguntas educadas.

En segundo lugar, cada vez más dependemos de algoritmos robotizados para filtrar y categorizar la información. Alguien que maneje estos flujos de datos, como ha probado Facebook en un controvertido experimento llevado a cabo recientemente, puede influenciar en el ambiente emocional de las personas y sus tendencias en la toma de decisiones.

Incluso si sugerimos que, en el ejemplo que hemos mencionado antes, la IA gobierna una ciudad o un país de forma indirecta y realiza únicamente funciones de asesoramiento, la Inteligencia Artificial sigue siendo capaz de aconsejar una solución que a la larga sería poco ética. La IA conocerá las consecuencias de esta decisión, pero no lo harán los seres humanos.

En una vida privada, esta influencia podría emerger muy rápido y ser aún más impactante. Durante la reciente conferencia de Google I/O, fue presentado el nuevo sistema Now on Tap, que protege todas las aplicaciones del smartphone del usuario, extrae los datos contextuales y los utiliza en las búsquedas de Internet.

Por ejemplo, si leéis un artículo sobre un músico en la aplicación de la Wikipedia y preguntáis a Google “¿Cuándo es su concierto?”, el robot sabrá inmediatamente y con exactitud a quién os referís con ese “su”. Un útil robot ya nos recuerda cuándo tenemos que ir al aeropuerto, ya que nuestro vuelo sale en un par de horas, actuando como un habilidoso e inteligente asistente personal.

Por supuesto que el encargado de estas tareas de asistencia, no es una IA completa, se trata de un mero sistema experto en el auto aprendizaje, diseñado para llevar a cabo una reducida selección de tareas. Su comportamiento está completamente predefinido por las personas y, por consiguiente, predecible.

No obstante, la evolución computacional podría convertir a este sencillo robot en uno mucho más sofisticado. Es fundamental garantizar que manipule la información únicamente por el bien del usuario y no siga su propia agenda secreta.

Este es el problema que ocupa muchas de las mentes brillantes de nuestro tiempo, desde Stephen Hawking a Elon Musk. A este último no podemos considerarlo como un filósofo conservador temeroso u opuesto al progreso. Por el contrario, el inventor de Tesla y SpaceX espera ansioso el futuro. Sin embargo, ve la evolución de la IA como una de las tendencias más controvertidas con consecuencias todavía imprevisibles y potencialmente catastróficas. Por eso, a principios de este año invirtió 10 millones de dólares en la investigación de Inteligencia Artificial.

Dicho esto, ¿qué nos depara el futuro?

Por extraño que parezca, una de las hipótesis más viables, que los expertos consideran demasiado optimista, es la imposibilidad final de crear una IA completa. Sin un avance tecnológico significativo (que aún está por ver), los robots simplemente seguirán actualizando y mejorando sus habilidades existentes.

Mientras nosotros aprendemos a hacer cosas sencillas como conducir un coche o hablar la lengua nativa, ellos no son capaces de sustituir a una persona en la autonomía en la toma de decisiones. Teniendo en cuenta una perspectiva a corto plazo, es probable que la IA provoque algún “daño colateral” como eliminar la profesión de los taxistas, pero nada que se considere como una amenaza a la humanidad.

Andrey Lavrentiev sugiere que el conflicto entre la IA y la humanidad sólo es posible bajo una condición: la necesidad de compartir los mismos recursos.

“Las personas tenemos cuerpo y estamos interesadas en crear condiciones favorable para su comodidad (además de para la comodidad de la mente). Con la IA, la situación es la contraria: inicialmente sólo existe en el mundo digital”.

“El objetivo y la motivación clave de la IA es el completo procesamiento de la información suministrada a través de canales externos, o de sus ‘órganos sensoriales’, evaluarla, identificar los principios de su cambio”.

“Por supuesto, la IA también obedece a algunas bases sólidas, pero su dependencia de un “armazón” es mucho más débil que en el caso del ser humano. En el caso de la IA, al contrario que los humanos, no se centrará tanto en preservar su “armazón” (o “cuerpo”), ya que la IA estaría, en realidad, “en todas partes”. La extensión orgánica del alcance de la IA en la búsqueda de nueva información se centraría en la exploración espacial y el estudio de las leyes del universo, pudiendo propagarse más allá de la Tierra”.

“Sin embargo, incluso en esta situación, hay ciertos obstáculos. Una vez que esta superinteligencia observe a la humanidad o el universo y los vea como imperfecciones de su modelo digital, tratará de eliminar a uno de ellos para poder alcanzar la armonía. O, probablemente, necesitará de los recursos que consumen las personas para “explorar el espacio”, dando de nuevo relevancia al viejo conflicto entre la IA y la humanidad”.

Consejos