Prohibir las armas autónomas no es práctico ni eficaz

By Paulo E. Santos: ES, January 31, 2016

Desde hace tiempo que las computadoras superan a los humanos en determinadas funciones que se considera que requieren “inteligencia”. Uno de los primeros ejemplos famosos fue la máquina Bombe desarrollada durante la Segunda Guerra Mundial en Bletchley Park, que permitió al Reino Unido descifrar mensajes codificados por la máquina Enigma del ejército alemán. En 1997 la computadora de IBM Deep Blue venció al campeón mundial de ajedrez Gary Kasparov en un juego de seis partidas. En 2011 Watson de IBM, que “utiliza procesamiento de lenguaje natural y aprendizaje automático para revelar información a partir de una enorme cantidad de datos no estructurados” apareció en el concurso televisivo de preguntas y respuestas Jeopardy y venció a dos ex campeones. Así que no estoy de acuerdo con lo que mi colega Heather Roff sugiere en la Segunda Ronda, es decir, que me contradije al escribir, por un lado, que es prácticamente imposible que la inteligencia artificial alcance alguna vez el nivel de la inteligencia humana y, por el otro, que las armas autónomas podrían en el futuro desempeñar algunas funciones militares mejor que los combatientes humanos. Desde mi punto de vista no existe contradicción alguna.

De forma similar, Roff descartó el argumento de Monika Chansoria, la tercera participante de esta mesa redonda, de que las armas autónomas podrían volverse útiles en la lucha contra el terrorismo. Según Roff, las máquinas nunca serán capaces de distinguir a los terroristas de los civiles porque está habilidad requeriría “una inteligencia artificial tan sofisticada que superaría a la inteligencia humana en lo que refiere a la capacidad de hacer determinadas distinciones”. Sin embargo, algunos descubrimientos sugieren que los algoritmos de reconocimiento facial más modernos podrían superar a los humanos al emparejar rostros. De hecho, en lo que refiere a las habilidades que permitirían a las armas autónomas combatir al terrorismo con eficacia, reconocer rostros con gran precisión y en condiciones de observación diversas es la habilidad clave. Sin dudas los algoritmos que sirven de base a la percepción de las máquinas se enfrentan en la actualidad a varias limitaciones, como la incapacidad de interpretar situaciones que cambian rápidamente. Sin embargo, no veo ninguna razón por la que estos obstáculos no puedan superarse en el futuro (aun cuando, al final, la percepción de las máquinas pudiera utilizarse mejor en sistemas de vigilancia que en máquinas armadas).

El verdadero problema que se presenta al utilizar sistemas letales autónomos para combatir el terrorismo es que matar a presuntos terroristas, denegándoles así el derecho a un juicio justo, equivaldría a asesinatos cometidos por el Estado. A su vez, en cualquier caso, el mismo concepto de “terrorismo” tiene una carga ideológica. Por ejemplo, los movimientos independentistas ocurridos en las Américas durante los siglos XVIII y XIX podrían haberse interpretado como movimientos terroristas en las capitales europeas de ese momento.

Enfoque con matices. Roff aboga por la prohibición de las armas autónomas letales. Como pacifista, estoy de acuerdo en que, idealmente, una prohibición absoluta es la mejor opción. Sin embargo, ya se ha integrado tanta automatización al diseño de armas que prohibir las armas autónomas letales parecería ser lo mismo que interrumpir el desarrollo de la misma guerra, lo que resulta prácticamente imposible. Además, aun cuando se estableciera una prohibición, lo más probable es que no fuera eficaz (e incluso podría calificarse de ingenua). Supongamos que se implementara una prohibición con condiciones similares a las establecidas en la carta abierta del año pasado sobre armas autónomas que suscribieron investigadores de inteligencia artificial y robótica. Se declararía ilegal el desarrollo de armas letales totalmente autónomas, pero se dejaría fuera a las máquinas asesinas a control remoto, los misiles de crucero y otras armas con diversos niveles de automatización. En esta situación, ¿cómo podría estar segura la comunidad internacional de que un arma a control remoto utilizada durante un conflicto no estuviera controlada completamente por un agente artificial? No es necesario que cambie la interfaz de un arma en función de si el agente que la controla es humano o artificial. A su vez, un ser humano podría supervisar las acciones de las armas en cualquier caso. Sin embargo, en uno de los casos sería un humano el que tomara las decisiones sobre los ataques y, en el otro, esta decisión estaría a cargo de la inteligencia artificial.

Esta es una razón por la que prefiero una fuerte regulación de las armas autónomas en lugar de la prohibición absoluta de la tecnología. La regulación proporcionaría las herramientas necesarias para analizar y entender la creciente automatización en la guerra. Implicaría establecer limitaciones sobre el desarrollo y uso de las armas autónomas. A su vez, asestaría un golpe a las matanzas inhumanas y los asesinatos patrocinados por el Estado.

Si la regulación es el camino correcto, la cuestión es cómo modificar el derecho internacional humanitario y los derechos humanos, que ahora rigen solo para los agentes humanos, de modo que puedan abarcar también la automatización en las guerras. Sin dudas este sería un enfoque con matices, no uno banal. Sin embargo, ya hay literatura que puede servir de base a los debates. Es momento de empezar este proyecto, en lugar de procurar una prohibición que probablemente nunca se implementará y que lo más seguro es que fuera ineficaz.

 


Share: [addthis tool="addthis_inline_share_toolbox"]