自主武器与历史的诅咒

By Paulo E. Santos: CH, December 12, 2015

能够选择和攻击目标、无须人类介入的自主武器已经成为现实。如今,此类武器主要局限于在无人地区瞄准军事目标,但是发展迅速、具有强大处理能力、具备先进人工智能算法的计算机系统,可能很快会迫使各国做出切实选择,决定是否在城市地区的战争中部署全自主武器。

但是,自动化战争是否会如一些观察者所称,将附带损害降到最低——抑或只会造成大规模杀伤?答案并不明确。明确的是,人类就攻击目标所做的决定,常常是极为糟糕的。当然,讨论自主武器的伦理问题,辩论是否应该予以禁止、监管或任其无限制发展,都是重要的事情。但是,所有形式的非人化的杀戮,才是归根到底的问题。

优化伤亡。首先,“自主武器”的含义到底是什么?这一术语的界定并不清晰。从某种意义而言,巡航导弹和遥控无人机都是自主武器,也都已在战场上广泛部署。但当人们谈到自主武器,通常指的是具有最先进的人工智能、机器人和自动控制能力的武器,它们不需人类干预,就能选择目标、决定是否进行打击。

另外,还有必要理解“人工智能”指的是什么——或者说,更关键的是,理解“人工智能”指的不是什么。每当电影和奇幻小说里描绘人工智能,少不了达到人类智能水平的机器。目前,这样的机器连有没有可能实现,都缺乏科学依据。实际上,人工智能关注的是开发适用于推理任务(即解决问题、决策、预测、诊断等)的计算算法。人工智能还涉及对数据加以归纳或分类——称为机器学习。智能系统可能包括计算机视觉软件,其最终目标是对图像进行有意义的阐释。此类功能对好莱坞而言并不是新鲜事,但对自主武器开发而言有着重大意义。

有人称,将人工智能运用于战争,尤其是通过自主武器,或许可以在战场上优化伤亡情况。这种观点认为,智能机器人系统可以准确、高效地识别目标。此类系统在交战时,可将附带损害降到最低——尤其是相较于许多由人来执行的战斗任务,例如10月3日一架美国空军武装直升机对阿富汗境内一座无国界医生组织医院实施攻击。自主武器可在提升战斗任务成功率的同时,将平民伤亡降到最低。

但是,类似的论点也可以用于武器历史中的大多数创新,从火药一直到第一次伊拉克战争中的“外科手术式袭击”(后者在电视上描绘得如此光辉)。而即便新式武器能够“优化”杀戮,它们也会使其非人化。千百年来,士兵瞄准的一直都是人。现在,士兵优势瞄准的是类似电子游戏中的目标。未来,他们可能根本无需瞄准,把这个任务留给机器就行了。但是,全自主武器系统与巡航导弹或遥控军事无人机之间的区别,其实与其说是伦理或道德方面的,不如说是技术方面的。如果现代社会愿意将战争当作电子游戏一般接受的话——正如人们在1990年代接受了“外科手术式袭击”一样——那么自主武器已经得到接受,成为了战争的一部分。

最近,一群科学家——包括笔者在内——联名签署了一封公开信,呼吁禁止“超越人类有效控制范围的进攻性自主武器”。现在重读这封信,我新注意到其中提议的禁令只是针对“可无需人类干预而选择目标交战”的武器,而排除了“所有目标均由人类决定的巡航导弹或遥控驾驶无人机”。从某种意义而言,这种方案暗示着,大量乱杀滥杀——不论是士兵还是平民,成人还是儿童——是可以的,只要目标由人决定。但是,审视人类历史,很难找出人类控制武器远优于自主控制的理由。举一个20世纪的例子——可选的例子太多——人类控制并未阻止1945年8月对广岛和长崎约20万平民的大规模杀戮(但是,如果科学家一意识到可以造出核武器,就开始对其开发和使用加以有效的国际监管,那么或许可以避免此类暴行。)

我是以和平主义者的身份签署这封公开信的。任何提议禁止开发和生产武器的信,我都愿意签名。但是,我并不认为,对自主武器的全面国际禁令可以阻止其开发——毕竟,对先进致命性智能机器人系统的研究已经进行了数十年。核武器和可用生物武器的开发,所需的实验室非常专门化且昂贵,所需的材料也很容易跟踪。相较于此,制造自主武器很容易。任何现有的智能机器人实验室,只需少量资金和几周时间,就能从零开始制作出一个可移动的、能对任何移动物体进行自主跟踪和开火的机器人。这样的机器人一遇到楼梯就会被卡住,但仍然是一个基本的自主武器。

没有可行的方法可以确保人们永远不会制造自主武器。对此类武器开发的禁令,无异于发出邀请,鼓励人们设立地下实验室,从而使我们无法控制此类武器,无法对开发此类武器的实体进行问责。可行的是——通过有效的国际监管——确保对自主武器的开发进行逐一的分析和跟踪。应有严格规则指导自主武器的目标选择,而此类武器的部署必须遵守国际人道主义法——如果事实证明无法遵守,那么就永远不应在战场上部署。最后,必须建立一套体系,对任何开发和部署自主武器、但未能遵守指导监管原则的组织进行问责。


Share: