Contra los robots asesinos

En un anterior comentario (“Los robots asesinos”, 15-dic-2016) aludí ya en estas páginas digitales a la campaña internacional para oponerse a los llamados killer robots, es decir, a los artefactos que técnicamente se conocen como “sistemas autónomos de armas letales” o Laws según sus siglas en inglés.

Tras sugerir al lector que relea lo entonces publicado (haciendo clic sobre su título), es necesario advertir que el asunto ha vuelto a la actualidad a causa de la reactivación internacional de la llamada Campaign to Stop Killer Robots en más de 50 países, implicando en ella a un centenar de organizaciones no gubernamentales. Entre sus impulsores se encuentra una veintena de premios Nobel, el Parlamento Europeo y un amplio número de especialistas en inteligencia artificial (AI), que aspiran a preparar un tratado internacional de prohibición que podría entrar en vigor en 2021.

La peculiaridad de esta campaña es que, por primera vez, la reacción contra un tipo de arma que se considera reprobable para la humanidad surge y se organiza antes de que las armas en cuestión hayan sido utilizadas en combate.

En casos anteriores, otras armas, como los gases, las minas antipersonal o las bombas de racimo, habían producido ya innumerables víctimas antes de que las organizaciones internacionales se pusieran de acuerdo para controlar o prohibir su empleo. Como ocurrió en 1997 en la Convención de Ottawa, que vedó el empleo, almacenamiento, producción y transferencia de las minas antipersonal, causantes de gran número de víctimas inocentes en numerosos países que habían sufrido los efectos de la guerra.

El auge de la inteligencia artificial parece imparable, como se advierte en campos tan diversos como la investigación policial, la salud pública, la agricultura o la investigación científica. La guerra no podía permanecer al margen de esta tendencia y la industria bélica se ha sumado a ella con entusiasmo, centrando su atención en las armas robóticas. Armas que pueden permanecer indefinidamente en el teatro de operaciones por su propia cuenta, que nunca desobedecen las órdenes recibidas y cuyo empleo diminuye los errores humanos propios del combate. Armas capaces de identificar objetivos de cualquier tipo y destruirlos según hayan sido programadas. Incluso son concebibles drones capaces de matar en un poblado a todos los individuos masculinos de una cierta gama de edades, o de aniquilar a un jefe de Estado concreto.

Las consecuencias éticas de su empleo son hoy tan discutidas como lo fue la táctica de la “guerra de trincheras” en la 1ª G.M. o el armamento nuclear en 1945. Si el aspecto moral de las guerras está viéndose afectado por la creciente separación física entre el que dispara y el que muere (como sucede en los ataques con drones), el problema se complica cuando se intercala entre los mandos militares responsables de la guerra y las armas que la ejecutan un sistema de IA para la toma de decisiones.

¿Se podría atribuir a un algoritmo la responsabilidad de violar las convenciones de Ginebra? ¿Y cómo se haría justicia en tal caso? Algo más: ninguna tecnología es perfecta y todas son susceptibles de fallos. ¿Podría un error en el sistema hacer que el robot volviese sus armas contra quienes lo controlan?

El problema es acuciante. EE.UU., Rusia, China, Israel y algunos otros países experimentan y poseen ya algunas armas de funcionamiento autónomo. Se trata de una carrera contra reloj en la que compiten varios Estados. ¿No parece ya esencial para la humanidad establecer los controles internacionales que eviten una proliferación desmedida de los “robots asesinos”?