The authoritative guide to ensuring science and technology make life on Earth better, not worse.

Armas autónomas: no son simplemente armas inteligentes más inteligentes

By Heather Roff: ES, January 6, 2016

Es fácil suponer que algún día, a medida que mejoren sus capacidades tecnológicas, las armas autónomas superen a los seres humanos en su capacidad para tomar decisiones en el campo de batalla. Después de todo, los seres humanos se cansan. Son fáciles de engañar, tienen propensiones ideológicas o carecen de buen juicio. Entretanto, las armas con tecnología sofisticada no se verán afectadas por ninguno de estos defectos.

Sin embargo, estas suposiciones no se basan en la realidad y constituyen un fundamento muy deficiente para tomar decisiones sobre el futuro de las armas autónomas.

Mi colega de mesa redonda Paulo Santos escribe que no existe evidencia científica que apoye la idea de que las máquinas alguna vez puedan demostrar “una inteligencia como la de los seres humanos”. Sin embargo, no desestima la idea de que “las armas autónomas pueden reducir las víctimas civiles a un mínimo indispensable aun cuando mejoren las probabilidades de misiones exitosas”. En este caso está muy cerca de dos ideas diferentes a la vez, de forma un tanto extraña, y hace lo mismo cuando se trata de la prohibición o regulación de las armas autónomas. Preferiría que las armas autónomas no existieran. Sin embargo, le preocupa que, en caso de que una prohibición demostrara no ser viable, esta alentaría la creación de laboratorios subterráneos, así que se pone del lado de la regulación.

Entretanto, a Monika Chansoria le preocupa sobremanera proteger a los civiles de los terroristas. Sobre esta base argumenta contra la prohibición de las armas autónomas. Ahora bien, los sistemas de armas autónomas no tienen nada que ver con el terrorismo. No representan una forma de atacar terroristas. No son una forma de “ganar” la “batalla” contra el terror. Son simplemente armas que pueden detectar, seleccionar y disparar contra objetivos sin intervención humana.

Sin embargo, si fuéramos a creer, como parece creer Chansoria, que las armas autónomas algún día tendrán la habilidad de distinguir a los civiles de los terroristas (por consiguiente, detectando y eligiendo a las personas), debemos creer que estos sistemas estarán dotados de una inteligencia artificial tan sofisticada que superará a la inteligencia humana en lo que refiere a la capacidad de hacer determinadas distinciones.

Si no asumimos que la tecnología se basará en inteligencia artificial que supere a la inteligencia humana, me cuesta mucho ver cómo estos sistemas alguna vez podrán identificar a personas que no utilicen uniforme, pero que participen activamente en las hostilidades. Según las palabras de Stuart Russell, un destacado experto en inteligencia artificial de la Universidad de California, Berkeley, “la categoría de 'combatiente' no es visual”. En su lugar, se trata de una clase de personas que llevan a cabo una serie indefinida de actividades. Esto significa que, a menos que los seres humanos utilicen sensores que las armas autónomas puedan detectar, la inteligencia artificial no puede “interpretar las imágenes de forma coherente” (tomando prestada la expresión de Santos) en un complejo campo de batalla en el que los seres humanos lleven a cabo una serie indefinida de actividades.

Para lograr claridad con respecto a las armas autónomas es necesario abandonar la idea de que son simplemente bombas inteligentes más inteligentes. Las municiones de precisión que “limitan los daños colaterales” son únicamente precisas en su capacidad para localizar una determinada ubicación en el tiempo y el espacio. Esta ubicación, ya sea pintada con láser por alguna persona o guiada a través de coordinadas y satélites, todavía es determinada por seres humanos. Los seres humanos eligen ese blanco. La precisión del arma se refiere únicamente a la probabilidad de que el arma llegue al lugar exacto. Por otro lado, las armas autónomas elegirían a sus propios blancos, así como las municiones que lanzarían al objetivo. Estas municiones podrían ser “bombas inteligentes” o “bombas tontas”, pero la precisión no es aquí la cuestión. La cuestión es la propia elección del objetivo.

Por consiguiente, no ayuda confundir las cosas clasificando erróneamente a las armas autónomas, abordando su utilización en entornos inadecuados desde el punto de vista operativo, o asumiendo que su utilización provocará guerras más limpias, con menos daños colaterales. Estos enfoques no contribuyen en nada a abordar los desafíos muy reales que presentan las armas autónomas. Lo que realmente es necesario es que la comunidad internacional y las organizaciones internacionales, como las Naciones Unidas, adopten una postura oportuna y decisiva con respecto a esta cuestión. ¿Cómo funcionaría la regulación? ¿Cómo sería una prohibición? Estas son preguntas que deben responder los Estados miembros. Ha llegado el momento de empezar a responderlas y dejar de participar en conversaciones sin sentido.

 


Share: [addthis tool="addthis_inline_share_toolbox"]