The authoritative guide to ensuring science and technology make life on Earth better, not worse.
By Heather Roff: ES, February 16, 2016
Mis colegas de mesa redonda Paulo E. Santos y Monika Chansoria defienden la regulación en lugar de la prohibición de las armas autónomas. Sin embargo, no definen nunca con precisión qué es lo que regularían. Se trata de un descuido preocupante; todos los que están a favor de la regulación de las armas o sus acciones deberían tener una idea muy clara de lo que esta comprende.
Según el Departamento de Defensa de EE. UU., las armas autónomas son armas que seleccionan un blanco y disparan sin intervención de un operador humano. Pero ¿qué significa exactamente “seleccionar”? ¿E “intervención”? Estas preguntas son más sutiles de lo que parecen.
“Seleccionar” podría significar explorar un espacio determinado en búsqueda de entradas de sensores, como una firma radar o imagen facial. Sin embargo, en este caso el arma no está seleccionando un blanco, sino que busca un blanco previamente elegido. De hecho, el blanco fue seleccionado por un ser humano, ya sea programando sus parámetros o identificando un objeto o lugar como blancos. Ahora bien, un arma de este tipo no es autónoma, sino automática.
Así que, nuevamente, “seleccionar” podría referirse al mero hecho de percibir un blanco. No obstante, los ejércitos modernos encontrarán que este tipo de lectura es problemática. Muchos sistemas de armas existentes -los misiles de crucero, los sistemas para contrarrestar cohetes y los sistemas de defensa de morteros, torpedos y minas marinas- perciben los blancos y disparan contra ellos. Es muy improbable que los Estados clasifiquen a estos sistemas como autónomos.
Así que, ¿qué distingue a las armas autónomas de las armas automáticas y, por lo tanto, las sujeta a una regulación o prohibición? Yo contestaría esta pregunta diferenciando a las armas automáticas sofisticadas de los sistemas de armas autónomas con aprendizaje limitado.
Las armas automáticas sofisticadas no pueden aprender ni modificar sus objetivos. Sin embargo, debido su movilidad y, en algunos casos, a sus capacidades de navegación autónoma, pueden causar estragos en poblaciones civiles. Además, tampoco pueden respetar los principios de necesidad, precaución y proporcionalidad. Por consiguiente, lo más probable es que se utilizaran como armas dirigidas contra equipos militares. Es poco probable que se utilicen contra combatientes.
Entretanto, las armas de aprendizaje limitado pueden aprender y también cambiar sus sub-objetivos mientras están funcionando. De verdad seleccionan un blanco entre una gama de objetos o personas. En pocas palabras, persiguen objetivos militares, al igual que los soldados que deciden si disparan o no contra una persona, vehículo o edificio, o cuál es la mejor forma de atacar al enemigo que se encuentra en un territorio más alto. Estos son los sistemas de armas verdaderamente autónomas (por cierto, ningún Estado se ha pronunciado a favor del uso de armas autónomas contra personas. Incluso los Estados que se oponen a la prohibición o regulación de las armas autónomas, se mantienen en su posición de que los sistemas de armas autónomas solo puedan usarse en “situaciones adecuadas desde el punto de vista operativo” en “entornos despejados”. Por lo tanto, la sugerencia de Chansoria, de que las armas autónomas podrían usarse en operaciones de lucha contra el terrorismo no tiene apoyo en círculos diplomáticos o militares).
Mis colegas sugieren que niego el potencial de la inteligencia artificial de superar determinadas capacidades humanas, o que niego que la inteligencia artificial sea más apropiada para determinadas tareas que los seres humanos. No niego ninguna de las dos cosas y por eso, precisamente, me preocupan los riesgos que pueden conllevar las armas de aprendizaje limitado, si se desarrollan y usan en combate. Estos riesgos, que implican un cambio profundo, no solo de la guerra, sino también de la seguridad y libertad civiles en tiempos de paz, son tan importantes que las armas que los conllevan deben prohibirse absolutamente. A su vez, antes de que nadie pueda aplaudir, como parece hacerlo Chansoria, armas futuras capaces de un “juicio cualitativo”, es mejor recordar que el “juicio cualitativo” solo puede surgir luego de que las tecnologías autónomas pasen por un peligroso y arduo punto intermedio de inteligencia “limitada” y poco juicio.
Preguntas difíciles. Así que, desde un punto de vista práctico ¿qué debería hacerse en relación con los sistemas de armas objeto de esta mesa redonda?
En lo que respecta a las armas automáticas sofisticadas, los gobiernos deben pensar cuidadosamente si estas armas deberían utilizarse en entornos complejos. Los Estados deberían reglamentar cómo pueden usarse. Ahora bien, los sistemas verdaderamente autónomos, de aprendizaje limitado o incluso más sofisticados, deberían prohibirse. Su utilización implicaría enormes riesgos para los civiles, podría incrementar los conflictos y probablemente provocaría una carrera armamentista en inteligencia artificial, y haría necesarias redes de sensores por todos los lugares de combate (y ciudades). De hecho, solo la vigilancia generalizada es lo suficientemente preocupante como para justificar la prohibición de las armas autónomas.
No es convincente alegar, como han hecho mis colegas, que es improbable que pueda imponerse una prohibición, o que esta sería inviable si se estableciera. Otras tecnologías, como las armas láser cegadoras, se han prohibido antes de su utilización, así que ¿por qué no pueden prohibirse las armas autónomas? Además, así como las armas químicas se prohibieron con el apoyo de los científicos y la industria química de todo el mundo, los retos que presentan las armas autónomas pueden afrontarse a través de la cooperación entre los científicos, especialistas en robótica y la industria tecnológica. Es más, algunos ejércitos ya tienen la capacidad de incorporar algoritmos de aprendizaje limitado en las armas, pero no la han utilizado debido a los riesgos y la incertidumbre que conlleva. Dado que los ejércitos ya están mostrando cautela, ¿por qué no presionarlos para que rechacen completamente las armas autónomas?
Las armas autónomas conllevan preguntas difíciles y graves desafíos. Es momento de abordarlos. Promover conceptos infundadamente optimistas sobre la naturaleza de los futuros conflictos no lleva a nada.
Topics: Technology and Security
Share: [addthis tool="addthis_inline_share_toolbox"]