The authoritative guide to ensuring science and technology make life on Earth better, not worse.
By Heather Roff: ES, December 8, 2015
Cazando en manadas. Patrullando redes de computadoras. Desplegadas en tierra firme, en el mar, el aire, el espacio; en todos lados. Sin dudas las armas autónomas desplegadas parecen siniestras. Sin embargo, en líneas generales ¿promoverían o empañarían la seguridad civil?
Para responder esta pregunta, es necesario entender claramente lo que significa el término "seguridad civil". Si significa proteger las vidas de los civiles durante un conflicto armado, entonces sí, es muy posible que las armas autónomas contribuyan a este fin algún día. No obstante, la tecnología actual no es lo suficientemente sólida como para permitir a las armas autónomas distinguir entre combatientes y no combatientes, en particular en medio de insurrecciones o guerras civiles. Lo máximo que puede lograr la tecnología actual es reconocer firmas de radar, firmas de calor, formas o, en el caso de las personas, sensores en los uniformes. Sin embargo, esto solo ayuda a identificar a los propios combatientes, lo que de ninguna manera mejora la seguridad de los civiles.
Con el tiempo, y con los desarrollos en materia de reconocimiento facial, gestual, biométrica, etc., la tecnología de armas autónomas podrá ser capaz de identificar mejor los objetivos aceptables, No obstante, estos avances no garantizarán que no se ataque a los civiles ni impedirán que surjan otras amenazas para la seguridad civil. Por ejemplo, para hacer frente a posibles amenazas, es posible que algún día las armas autónomas vigilen constantemente a las poblaciones, en cierta forma de manera similar al sistema de vigilancia aerotransportado "Gorgon Stare" que utiliza actualmente Estados Unidos. Si se aplica tecnología similar a las armas autónomas, las sociedades deberán enfrentar una gran variedad de problemas, que no se relacionan directamente con los conflictos armados pero que, no obstante, tienen que ver con la seguridad civil.
Por consiguiente, la "seguridad civil" se extiende más allá del desarrollo de hostilidades, más allá del alcance del derecho internacional humanitario. Es decir, la seguridad civil es un tema presente tanto en tiempos de guerra como de paz. En tiempos de paz se aplica otro derecho, el derecho internacional de los derechos humanos, que comprende un conjunto más amplio de tratados, principios, leyes y obligaciones nacionales relacionadas con los "derechos civiles, políticos, económicos, sociales y culturales que deben gozar todos los seres humanos".
Si las armas autónomas deben atenerse al derecho internacional de los derechos humanos, las armas deben al menos cumplir con todos los tratados internacionales, regionales y bilaterales de derechos humanos, así como con la correspondiente legislación nacional. De hecho, puede ser necesario que las armas autónomas promuevan los derechos humanos. Así pues, no es suficiente que una nación se pregunte si las armas autónomas protegerán a los civiles en algún otro país en el que lleven a cabo operaciones militares; las armas autónomas deben cumplir también las leyes del propio país. Además, y lo que es más sutil, las armas autónomas deben cumplir los requisitos legales también en circunstancias que no se ajustan demasiado bien a las leyes de la guerra ni a las de la paz.
Todo esto constituye un nivel muy alto para las armas autónomas. Para verlo con claridad, examinemos cómo las armas autónomas podrían infringir, por ejemplo, la Convención Europea de Derechos Humanos. Si las armas autónomas se desplegaran dentro de Europa y utilizaran para la vigilancia omnipresente, por ejemplo en operaciones antiterroristas, es posible que infringieran el derecho a la vida privada y familiar, garantizado por el artículo 8 de la Convención. Como estas armas podrían estar relacionadas con la cibernética en lugar de con la robótica, también podrían tener efectos adversos sobre la libertad de pensamiento, conciencia y religión (garantizados por el artículo 9). Las armas autónomas relacionadas con la cibernética podrían vulnerar la libertad de expresión (artículo 10), al tener un efecto inhibidor en las conversaciones o expresiones utilizadas en Internet, por el temor de los usuarios de ser sancionados.
Por supuesto, la amenaza más grave que representan las armas autónomas es la del derecho a la vida. Podría suponerse que la "seguridad civil" se refiere al derecho a la vida, en lugar de, por ejemplo, el derecho a la vida privada y familiar. Sin embargo, el derecho a la vida, que se garantiza no solo en el artículo 2 de la Convención, sino también en otros instrumentos internacionales importantes, no es ilimitado. El derecho a la vida depende en gran medida de autorizaciones legales en relación con el uso de la fuerza letal.
Ahora bien, estas autorizaciones legales difieren según se esté en guerra o en paz. En situaciones de paz (o de "cumplimiento de la ley") para recurrir a la fuerza letal es necesario que exista una amenaza inminente a los transeúntes u oficiales. Durante la guerra el umbral para el uso de la fuerza letal es mucho menor. Aplicar estas distinciones a las armas autónomas parece indicar que, si se identifica a una persona como una amenaza potencial o real, las armas autónomas deben intentar arrestarla (a menos que esta amenaza sea letal e inminente para los transeúntes; podría no haber ninguna amenaza para la máquina). Si el sistema es incapaz de arrestar, por ejemplo, porque es un sistema aéreo, las opciones parecerían limitarse a matar o no matar. Sin embargo, matar a una persona en estas circunstancias constituiría una violación automática del derecho a la vida. Es más, esto también infringiría el derecho a un juicio justo. Desconocer el derecho a un juicio justo socava el Estado de Derecho, que es en sí mismo la fuerza más importante para establecer y proteger la seguridad civil.
Peligros para todos. Además de todo esto, la seguridad civil y, en consecuencia, el derecho a la vida, se ven amenazados por una potencial carrera armamentista de armas autónomas e inteligencia artificial. Esta carrera expondría a los civiles de todo el mundo a un riesgo indebido, posiblemente existencial. Si las armas autónomas se desarrollan y utilizan, con el tiempo se asentarán en todos los sectores: el aire, el espacio, el mar, la tierra y el cibernético. Cazarán en manadas. Funcionarán en redes en sistemas de armas no tripuladas. Patrullarán redes de computadoras. Estarán en todas partes. Por lo tanto, es arrogante suponer que solo un país procurará su desarrollo.
Muchos Estados concluirán que necesitan desarrollar su defensa, a un ritmo cada vez más rápido, con inteligencia artificial y armas cada vez más fuertes y con una autonomía cada vez mayor. No obstante, los sistemas autónomos con capacidades de aprendizaje podrían salirse rápidamente del control de sus creadores. Serían un peligro para todas las personas que estuvieran dentro de su alcance inmediato. A su vez, las armas autónomas conectadas entre sí a través de redes, o los agentes autónomos dotados de inteligencia artificial y conectados a Internet, no estarían confinados a un único territorio geográfico o a Estados que participaran en conflictos armados. Los efectos no deseados de la creación y utilización en el campo de batalla de sistemas autónomos podrían ser tan graves que los riesgos relacionados con su uso superarían cualquier posible beneficio.
¿La prohibición absoluta es la respuesta adecuada al desarrollo de las armas autónomas o el enfoque correcto radica más bien en la regulación internacional eficaz? En el pasado abogué por la prohibición de las armas autónomas, dado que los riesgos de no hacerlo son muy graves. Ahora bien, con o sin prohibición, es necesario contar con una legislación internacional eficaz. Muchas tecnologías de la información y comunicación son de uso dual, lo que significa que pueden perseguir propósitos tanto militares como no militares. La inteligencia artificial puede beneficiar a las sociedades, y no debemos permitir que lo malo desplace a lo bueno. Por consiguiente, los Estados deben juntarse, con la ayuda de expertos y organizaciones no gubernamentales, para crear un enfoque práctico y factible para las tecnologías autónomas en robótica y ciberseguridad, un enfoque que impida la militarización pero permita los usos benéficos. En definitiva, no se trata de si debemos prohibir o regular. Se trata de ver cómo podemos hacer las dos cosas de la mejor forma posible.
Topics: Technology and Security
Share: [addthis tool="addthis_inline_share_toolbox"]