The authoritative guide to ensuring science and technology make life on Earth better, not worse.
By Monika Chansoria: ES, December 8, 2015
Cuando varios investigadores sobre inteligencia artificial publicaron una carta abierta en julio llamando a la prohibición de las "armas autónomas ofensivas que no puedan ser controladas de forma significativa por los seres humanos", especificaron que esta prohibición podría incluir armas como "cuadricópteros armados", capaces de identificar y matar personas "siguiendo determinados criterios definidos previamente". Sin embargo, la prohibición no comprendería a los "misiles de crucero o drones dirigidos a distancia en los que los seres humanos toman todas las decisiones sobre los objetivos". Así pues, cabe destacar que la prohibición propuesta no comprendería a varias armas autónomas que ya se han utilizado, dado que las mismas se clasifican como defensivas.
Entre estas se cuentan el Phalanx de la Armada de EE. UU., un "sistema de artillería de fuego rápido, controlado por computadora y dirigido por radar" que se utiliza desde 1980 y que la Armada de Estados Unidos adoptó más recientemente en tierra firme. De la misma forma, el sistema de defensa totalmente automatizado NBS Mantis de Alemania puede detectar, rastrear, captar y disparar contra proyectiles. A su vez, el sistema de defensa antimisiles israelí Cápsula de Hierro funciona autónomamente excepto cuando, al percibir una amenaza, requiere que un ser humano decida rápidamente si debe o no disparar.
Por lo general existe una aceptación general de estos sistemas como herramientas de guerra legítimas. No obstante, las armas ofensivas totalmente autónomas son una cuestión diferente. Dan lugar a preguntas difíciles sobre si estas armas pueden defender el imperativo moral de proteger las vidas de los civiles durante los conflictos. Ahora bien, en este debate se pasa fácilmente por alto otro imperativo moral, el de la protección de los civiles a los que actores no estatales, que perpetran deliberadamente la violencia en masa y el terror contra los inocentes, ponen en peligro.
En mi opinión, cualquier propuesta para la prohibición de las armas autónomas letales debe tener en cuenta las guerras no convencionales, asimétricas e irregulares que llevan a cabo actores trasnacionales no estatales, así como los efectos de estos conflictos sobre los civiles. Los actores no estatales prosperan muchas veces precisamente porque no se los puede distinguir de las poblaciones civiles locales. También prosperan al utilizar territorios inhóspitos, como montañas y desiertos, escapando a través de fronteras porosas y recurriendo a la ayuda de Estados o actores estatales cómplices. Los militares a veces pueden superar las ventajas de las que disfrutan los actores no estatales, en particular utilizando óptimamente tecnologías que incluyen vehículos aéreos no tripulados (con el apoyo de la inteligencia adecuada). Sin embargo, para los militares es muy problemático vencer a los actores no estatales en el sentido convencional. En la misma medida, luchan por proteger a los civiles.
¿Las armas totalmente autónomas con capacidades sumamente sofisticadas podrían ser capaces de cambiar esta ecuación? ¿Podrían, sin poner en ningún riesgo a los civiles,salvar las vidas de los hombres, mujeres y niños inocentes atrapados en zonas de conflicto violentas? Si las armas autónomas pudieran incapacitar los blancos enemigos minimizando los daños no deseados, deberíamos pensar seriamente en usarlas como armas en la lucha contra actores no estatales y terroristas.
Ningún arma existente puede describirse correctamente como un arma autónoma ofensiva capaz de matar blancos legítimos, evitando a la vez a los civiles. La inteligencia artificial de la actualidad, que no puede reproducir la inteligencia y el juicio humanos, plantearía problemas fundamentales para la seguridad civil, si se utilizara en el campo de batalla. Sin embargo, es crucial recordar que la tecnología de armas autónomas es un sector en desarrollo. Es posible que las investigaciones y desarrollos futuros permitan dotar a las máquinas con capacidades para el juicio cualitativo que no son posibles en la actualidad. Los futuros desarrollos tecnológicos pueden permitir a las armas autónomas superar a los seres humanos en situaciones que surjan en el campo de batalla.
En definitiva, estoy a favor de la regulación de las armas autónomas en lugar de la prohibición absoluta de toda la tecnología. No obstante, en cualquier caso no parece probable que se determine su prohibición total. Por ejemplo, el Ministerio de Asuntos Exteriores del Reino Unido afirmó que "no vemos la necesidad de una prohibición" de las armas autónomas letales, dado que "el derecho internacional humanitario ya regula con suficiencia este tema". En mi opinión, lo que necesitamos es un marco regulatorio que limite la letalidad de los futuros sistemas de armas autónomas. También es necesario investigar los medios (por ejemplo, mejoras en la programación) que limitarían claramente las víctimas civiles relacionadas con las armas autónomas.
En última instancia, como ocurre con muchos otros aspectos de los conflictos o guerras contemporáneos, el problema fundamental radica en la proporcionalidad. De hecho, sostengo que las armas autónomas letales pueden considerarse éticas, siempre que los daños colaterales que inflijan no sean desproporcionados con respecto a sus contribuciones para la paz, seguridad y estabilidad, y para la prevención de derramamientos de sangre civil a escala masiva.
Topics: Technology and Security
Share: [addthis tool="addthis_inline_share_toolbox"]