The authoritative guide to ensuring science and technology make life on Earth better, not worse.
By Paulo E. Santos: ES, December 8, 2015
Las armas autónomas capaces de seleccionar y atacar blancos sin intervención humana ya son una realidad. En la actualidad se limitan en gran medida a atacar objetos militares en zonas no pobladas, pero los sistemas informáticos de rápido desarrollo con un enorme poder de procesamiento y algoritmos robustos para inteligencia artificial probablemente obliguen pronto a las naciones a adoptar decisiones concretas sobre la utilización de armas totalmente autónomas en guerras urbanas.
Ahora bien, ¿las guerras automatizadas minimizarán los daños colaterales, como afirman algunos observadores, o simplemente darán lugar a la destrucción masiva? La respuesta no está clara. Lo que está claro es que las decisiones sobre la selección de objetivos adoptadas por seres humanos son muchas veces sumamente nefastas. Para estar seguros es importante debatir sobre los aspectos éticos de las armas autónomas y sobre si se deben prohibir, regular o permitir que se desarrollen sin restricciones. No obstante, la cuestión definitiva se centra en la matanza deshumanizada en todas sus formas.
Víctimas optimizadas. En primer lugar, ¿qué queremos decir en todo caso con "armas autónomas"? Es un término sin límites claros. Los misiles de crucero y los drones a control remoto son autónomos en cierto sentido y ambos se han utilizado ampliamente en el campo de batalla. Sin embargo, cuando la gente habla de armas autónomas, por lo general se refiere a las armas con las más modernas capacidades en materia de inteligencia artificial, robótica y control automático que pueden, con independencia de la intervención humana, elegir blancos y decidir si los atacan o no.
También es importante entender lo que significa la "inteligencia artificial" o, más precisamente, lo que no significa. La inteligencia artificial que vemos en las películas y novelas fantásticas con frecuencia implica máquinas que demuestran una inteligencia como la de los seres humanos. Actualmente no hay evidencia científica de que esto siquiera sea posible. En lugar de ello, la inteligencia artificial se refiere al desarrollo de algoritmos computacionales capaces de llevar a cabo actividades de razonamiento, esto es, solución de problemas, adopción de decisiones, predicción, diagnóstico, etc. La inteligencia artificial implica también generalizar o clasificar información, que se conoce como aprendizaje automático. A su vez, los sistemas inteligentes pueden incluir software de visión artificial cuya finalidad en última instancia es permitir interpretar las imágenes de forma coherente. Este tipo de funciones no son demasiado entretenidas para las películas de Hollywood pero tienen un gran interés para el desarrollo de las armas autónomas.
Algunos sostienen que, si se aplica la inteligencia artificial en las guerras, especialmente a través de armas autónomas, se podrán optimizar las víctimas en el campo de batalla. Afirman, además, que los sistemas robóticos inteligentes podrían identificar objetivos con precisión y eficiencia. Podrían combatir de forma de minimizar los daños colaterales, de lo que no cabe duda alguna si lo comparamos con muchas misiones llevadas a cabo por seres humanos, como el ataque del 3 de octubre por parte de un helicóptero de combate de la Fuerza Aérea de EE. UU. a un hospital de Médicos sin Fronteras en Afganistán. Las armas autónomas pueden reducir las víctimas civiles a un mínimo indispensable aun cuando mejoren las probabilidades de misiones exitosas.
Ahora bien, se podrían presentar argumentos similares para la mayoría de las innovaciones en la historia de las armas, desde la pólvora a los "ataques quirúrgicos" de la primera guerra de Irak (que se mostraron con mucho glamour en la televisión). Además, aun cuando las nuevas armas logren "optimizar" las matanzas, también las deshumanizan. Durante décadas los soldados atacaron personas. Ahora atacan a veces blancos en una especia de videojuego. En el futuro quizás no ataquen ningún blanco, y dejen esa tarea a una máquina. Ahora bien, las diferencias entre, digamos, un sistema de armas totalmente autónomas y un misil de crucero o un dron militar a control remoto son en realidad más técnicas que éticas o morales. Si la sociedad moderna acepta que la guerra sea como un videojuego, como lo hizo aceptando los "ataques quirúrgicos" de los noventa, las armas autónomas ya se han aceptado en la guerra.
Recientemente varios científicos, entre los que se cuenta este autor, firmaron una carta abierta llamando a la "prohibición de las armas autónomas ofensivas que no puedan ser controladas de forma significativa por los seres humanos". Ahora, al volver a leer la carta, advierto de nuevo que propone que se prohíban solo las armas que "seleccionan y atacan objetivos sin intervención humana", excluyendo a los "misiles de crucero o drones dirigidos a distancia para los que los seres humanos toman todas las decisiones sobre los objetivos". En cierto sentido esta formulación implica que resulta admisible la matanza indiscriminada de una gran cantidad de personas, tanto civiles como soldados, niños o adultos, siempre y cuando los objetivos sean definidos por seres humanos. Ahora bien, si examinamos la historia de la humanidad, resulta difícil ver por qué el control humano de las armas es tanto mejor de lo que podría ser el control autónomo. Para tomar un ejemplo del siglo XX, entre muchos otros que podemos considerar, el control humano no impidió los asesinatos masivos en agosto de 1945 de unos 200.000 civiles en Hiroshima y Nagasaki (aunque quizás estas atrocidades podrían haberse evitado, si el desarrollo y uso de las armas nucleares se hubiera regulado a nivel internacional con eficacia tan pronto los científicos se dieron cuenta de que era posible fabricar estas armas).
Firmé la carta abierta como pacifista. Firmaría cualquier carta que propusiera prohibir el desarrollo y la producción de armas. Sin embargo, no creo que la prohibición internacional absoluta de las armas autónomas impida su desarrollo, después de todo las investigaciones sobre sistemas inteligentes robotizados letales avanzados ya tienen décadas de antigüedad. A su vez, en comparación con las armas nucleares y biológicas utilizables, para cuyo desarrollo son necesarios laboratorios muy especializados y caros y el acceso a materiales de sencillo seguimiento, las armas autónomas son fáciles de hacer. Cualquier laboratorio existente de inteligencia robótica podría, con poca financiación y en unas semanas, construir desde cero un robot móvil capaz de rastrear y disparar autónomamente a cualquier cosa que se moviera. El robot se atascaría en la primera escalera que encontrara pero sería, de todos modos, un arma autónoma básica.
No existe ninguna forma posible de asegurar que nunca se construyan armas autónomas. La prohibición de su desarrollo sería simplemente una invitación para crear laboratorios subterráneos, que impedirían controlar las armas o responsabilizar a las entidades que las desarrollaran. Lo que sí es posible, mediante una regulación internacional eficaz, es asegurar que se haga un seguimiento y análisis del desarrollo de las armas autónomas en cada caso individual. Los objetivos de las armas autónomas se regirían por normas estrictas, el desarrollo de las armas debería atenerse al derecho internacional humanitario y, si esto último no fuera posible, las armas no podrían utilizarse jamás en el campo. Por último, debe establecerse un sistema para hacer responsable a cualquier organización que, al crear y desarrollar armas autónomas, incumpla las normas que las regulan.
Topics: Technology and Security
Share: [addthis tool="addthis_inline_share_toolbox"]