Debemos detener las nuevas armas robóticas
Pere Brunet - Artículo publicado en El País - 25/10/2018
A principios de este mes de octubre, en el Aula Magna de la Facultad de Derecho de la UAB, representantes del International Committee for Robot Arms Control (ICRAC), juntamente con representantes de Fundipau y del Centro Delàs, presentaron la Campaña internacional Stop Killer Robots. Esta campaña para detener los robots asesinos se inició en Londres en abril de 2013, respaldada por una agrupación internacional de entidades que trabaja para prohibir de forma preventiva las armas totalmente autónomas. Debemos tener presente que los avances tecnológicos que están realizando en esta dirección algunos estados pueden cambiar drásticamente el concepto de guerra y los escenarios bélicos, comportando asimismo importantes desafíos a nivel humanitario y legal.
Sin embargo, hace solo un mes, en Ginebra, la sexta reunión de la Convención sobre Armas Convencionales (CCAC) de la ONU terminó sin ningún acuerdo vinculante. Aunque una clara mayoría de los estados asistentes proponía iniciar negociaciones en 2019 para definir un nuevo tratado que estableciese la prohibición preventiva del desarrollo y uso de sistemas de armas autónomos letales, Estados Unidos y Rusia rechazaron y vetaron la iniciativa (que apoyaban países como Austria, Brasil, Chile, Colombia, Irak, Pakistán, Panamá, un grupo de estados africanos y el grupo de estados del Movimiento de Países No Alineados). Los 88 estados participantes, que mayoritariamente estuvieron de acuerdo sobre la necesidad de alguna forma de control humano sobre los sistemas armados y el uso de la fuerza, no acordaron cómo proceder para lograr este objetivo.
En este contexto, querría aportar cuatro reflexiones al debate sobre los sistemas militares robóticos y sobre la prohibición preventiva de las armas autónomas letales.
En primer lugar, se trata de sistemas éticamente reprobables. Porque, incluso en el caso de las armas robóticas no autónomas que requieren una persona humana en el circuito de decisión, autores como Medea Benjamin y Markus Wagner consideran que cuando las operaciones militares se realizan a través del filtro de una cámara de video lejana, desaparece posibilidad del contacto visual con el enemigo, con lo que decrece la percepción del costo humano del posible ataque. Y, aunque no hay constancia de que los sistemas robóticos letales y totalmente autónomos (LAWS) estén siendo utilizados actualmente en acciones militares, ya existen sistemas que detectan y “deciden” las personas a atacar, aunque ofrecen la posibilidad de que un operador remoto detenga su acción mortífera. El debate ético, en este caso, se centra en los sesgos que las maquinas generan en los procesos humanos de decisión ya que, como bien explica Noel Sharkey, estos sistemas generan el fenómeno conocido como sesgo de automatización (“automation bias”) que hace que los operadores humanos tiendan a aceptar como correctas las soluciones propuestas por los sistemas robóticos e informáticos, ignorando o dejando de buscar información complementaria. Pero, en todo caso, siempre será éticamente inaceptable que no exista un grado suficiente de control humano en las funciones críticas de cualquier sistema militar armado.
Además, son armas no precisas, que matan civiles no involucrados. Hay que dejar bien claro que los nuevos sistemas basados en algoritmos masivamente heurísticos de aprendizaje a partir de datos incluyen inevitablemente un margen de error, que en el caso de las armas se traduce en muertes de personas inocentes. Cualquier sistema autónomo es solo parcialmente fiable. Este es un hecho bien conocido a nivel de la comunidad científica internacional, publicado reiteradamente y accesible universalmente como todos los resultados científicos, pero que sorprendentemente no se divulga lo suficiente.
En tercer lugar, estas armas son un gran negocio. Un negocio que enriquece a algunas personas mientras destruye y mata otras muchas. Hace días podíamos leer, en la versión impresa de un artículo de Ignacio Vidal-Folch sobre la venta de bombas de precisión a Arabia Saudita, que “no hay una solución fácil en este conflicto entre economía y ética”. El análisis de este oxímoron, que equipara principios éticos con beneficio económico en el caso de las llamadas bombas de precisión (armas que podemos incluir en la categoría de sistemas robóticos letales) nos desvela la gran hipocresía de los gobiernos estatales, que se llenan la boca de frases humanitarias mientras se “venden” para garantizar el negocio de su complejo militar-industrial y sus corporaciones financieras. Porque, como proclamaba la ex ministra Cospedal cuando intentaba animar a los inversores, se trata de un negocio muy rentable.
Finalmente, las nuevas armas robóticas son opacas. Su uso ha dejado de ser transparente, y raramente aparece en los medios de comunicación. Pero el número de víctimas civiles es realmente alto. Como explica por ejemplo David Hookes, incluso las estimaciones más conservadoras sugieren que al menos un tercio de las muertes causadas por ataques con drones en Pakistán han sido no combatientes. Y, en palabras de Ben Emmerson en el informe A/HRC/25/59 a la Asamblea General de Naciones Unidas, entre 2009 y 2013 por ejemplo, los Estados Unidos realizaron como mínimo 86 operaciones letales en Yemen con drones dirigidos a distancia y otros medios, que produjeron un total de 500 muertes. En su informe, Ben Emmerson documentaba con detalle un total de 30 ataques que afectaron a personas civiles en distintos países, y evidenciaba las grandes dificultades que su equipo encontró al investigar estos ataques.
Muchas entidades y campañas como Stop Killer Robots se oponen enérgicamente a permitir el desarrollo de sistemas de armas que, una vez activados, podrían seleccionar y atacar objetivos sin intervención humana. Permitirlo sería abominable, inmoral, contrario al concepto de dignidad humana y a los principios humanitarios, con consecuencias impredecibles para la población civil en todo el mundo. Pero además, estamos viendo otras señales de esperanza: un gran número de científicos e ingenieros están diciendo que no, objetando y negándose a trabajar en temas que puedan aplicarse al desarrollo de estas armas, oponiéndose a la simple idea de programar máquinas para matar seres humanos y considerando que hablar de paz y diálogo no es utópico, porque lo realmente utópico es creer que los problemas del mundo podrán resolverse con el uso de la violencia, como bien afirmaba Vicent Martínez Guzmán.