¿Puede la inteligencia artificial influir en nuestras vidas?

La inteligencia artificial asiste a jueces, policías y médicos. Pero ¿en qué se basa para tomar sus decisiones?

A pesar de nuestras últimas publicaciones sobre la inteligencia artificial, los usuarios siguen confiando temas importantes a sus robots asistentes. Los sistemas de autoaprendizaje ya ayudan a jueces y médicos en su toma de decisiones y pueden predecir crímenes que no se hayan llegado a cometer. Pero los usuarios suelen desconocer qué criterios siguen estos sistemas en su toma de decisiones.

La inteligencia artificial en el ámbito judicial

En los tribunales de Estados Unidos, la inteligencia artificial se utiliza en sentencias, medidas preventivas y mitigación. Después de estudiar los datos relevantes, el sistema de IA considera si un sospechoso es propenso a la reincidencia. Esta decisión puede convertir la libertad condicional en una sentencia real o dar lugar a la denegación de la fianza.

Por ejemplo, el ciudadano estadounidense Eric Loomis fue sentenciado a seis años de cárcel por conducir un coche desde el cual uno de los pasajeros disparaba a un edificio. Este fallo se basó en el algoritmo COMPAS, que valora los peligros que puede suponer un individuo a la sociedad. COMPAS recibió toda la información sobre el perfil del acusado y de sus antecedentes y lo identificó como un “individuo de alto riesgo para la comunidad”. La defensa impugnó la decisión con el argumento de que no revelaron la operativa del algoritmo, haciendo imposible evaluar la imparcialidad de sus conclusiones, pero el tribunal rechazó este argumento.

La inteligencia artificial como asistente policial

Algunas regiones de China han ido aun más lejos, utilizando la inteligencia artificial para identificar posibles delincuentes. Las cámaras con reconocimiento facial supervisan el público e informan a las fuerzas del orden si sucede algo sospechoso. Por ejemplo, alguien que compre grandes cantidades de fertilizante podría estar preparándose para un ataque terrorista. Cualquier persona culpable de actuar de manera sospechosa puede ser arrestada o enviada a un centro de reeducación.

Esta tecnología que previene el crimen se ha desarrollado también en otros países. La policía de algunas zonas de Estados Unidos o Gran Bretaña la utilizan para predecir dónde es más probable que tenga lugar el próximo incidente. Se tienen en cuenta muchos factores: los antecedentes criminales de la zona, su estatus socioeconómico e, incluso, el parte meteorológico. Cabe destacar que, desde que se implementó en los distritos de Chicago, los delitos con armas de fuego han disminuido aproximadamente un tercio.

La inteligencia artificial en la sanidad

En el ámbito sanitario también se utilizan nuevas tecnologías. Médicos artificiales consultan pacientes, realizan diagnósticos, analizan resultados de los chequeos y asisten a los cirujanos durante las operaciones.

Uno de los sistemas de autoaprendizaje más famosos en el sistema sanitario es IBM Watson Health. Los médicos forman a la inteligencia artificial para que esta diagnostique enfermedades y recete un tratamiento, una función por la que ha obtenido muy buenas críticas. Por ejemplo, ya en el 2013, había un 90 % de probabilidades de que esta supercomputadora seleccionara un tratamiento óptimo.

No obstante, en el verano del 2018, se reveló que algunos de los tratamientos aconsejados contra el cáncer no eran seguros. En concreto, Watson recomendó que un paciente de cáncer con hemorragias severas tomara un medicamento que podría causar más pérdidas de sangre. Afortunadamente, estas situaciones eran hipótesis y no casos reales.

Evidentemente, los médicos también cometen errores, pero en lo referente a la inteligencia artificial, las líneas de responsabilidad son difusas. ¿Se arriesgaría un médico de carne y hueso a contradecir a un colega digital cuyos creadores lo han formado con miles de artículos científicos, libros e historias clínicas? Y, en caso de no hacerlo, ¿asumiría el doctor alguna consecuencia negativa?

La transparencia de la inteligencia artificial

Uno de los principales problemas de que la inteligencia artificial decida el destino de la humanidad es que los algoritmos suelen ser opacos y rastrear todo el proceso en busca del error para que no se repita, no es nada fácil. Desde el ángulo de los desarrolladores de los sistemas de autoaprendizaje, es comprensible: ¿quién quiere compartir su experiencia con la posible competencia? Pero cuando la vida de las personas está en juego, ¿debería darse prioridad al secreto comercial?

Los políticos de todo el mundo están intentado regular la transparencia en la inteligencia artificial. En la Unión Europea, los “titulares de los datos” tienen derecho a conocer qué fundamentos de la inteligencia artificial afectan a sus intereses. Sin embargo, en Japón no se realiza esta práctica, aunque actualmente la están considerando.

Algunos desarrolladores están a favor de la transparencia, pero escasean. Uno de ellos es la compañía CivicScape, que en el 2017 publicó el código fuente de su sistema de predicción policial, aunque esta no deja de ser la excepción que confirma la regla.

Una vez fuera de la lámpara, es muy poco probable que el genio de la inteligencia artificial vuelva a su escondite. Por tanto, hasta que las decisiones basadas en la inteligencia artificial sean justas y precisas por completo, su uso debe basarse en leyes bien elaboradas y en la competencia tanto de los creadores como de los usuarios de sistemas de autoaprendizaje.

Consejos