禁止自主武器:不可行且无效

By Paulo E. Santos: CH, February 4, 2016

在一些人们认为需要“智能”的事情上,电脑的表现早已超出人类。一个著名的早期例子是二战时期在英国布莱切利园(Bletchley Park)开发的Bombe机器,它帮助英国破解了由德国军方Enigma机器加密的消息。1997年,IBM计算机“深蓝”(Deep Blue)在一场六局比赛中打败了国际象棋世界冠军加里·卡斯帕罗夫(Gary Kasparov)。2011年,IBM研发的“能够使用自然语言处理和机器学习、从大量非结构化数据中洞察信息”的“沃森”(Waston)现身电视竞猜节目《危险边缘》(Jeopardy),其表现超过了两位前任冠军。所以,我的同行希瑟·罗夫在第二轮认为我的论述自相矛盾——一方面人工智能可能永远无法达到人类智能水平,另一方面未来自主武器可能在一些军事职能中的表现可能超过人类战士——对此,我拒绝接受。在我看来,不存在矛盾。

类似地,罗夫驳斥了本次圆桌讨论的第三位参与者莫妮卡·詹索利亚的论点:自主武器可能在打击恐怖主义中起到作用。在罗夫看来,机器永远无法区分恐怖分子和平民,因为这种能力需要一种“人工智能,其复杂程度足以超越人类智能,并具有一定的分辨能力”。但是,一些研究发现表明,在进行面部配对时,尖端的人脸识别算法可以超越人类。的确,为了使自主武器具备有效打击恐怖主义的能力,关键要使其能够在各种观察条件下精确识别人脸。当然,机器感知的基础算法目前受到一些局限,例如无法理解快速变化的情况。但是,我认为没有理由未来不能克服这些障碍(即便到最后,可能更适合将机器感知部署于监视系统,而非武器化机器)。

部署自主致命系统用于打击恐怖主义的真正问题在于:置恐怖主义嫌疑分子于死地,而剥夺他们公平受审的权利,可能构成国家暗杀。而且无论如何,“恐怖主义”这一概念本身充满意识形态争议。例如,18和19世纪的美洲独立运动,在当时的欧洲国家首府或许被理解为恐怖主义运动。

微妙的工作。罗夫主张禁止自主武器。作为和平主义者,我也认为全面禁止是理想中最佳途径。但是,武器设计中已经融入了如此多的自动化,以至于禁止致命自主武器似乎和停止战争发展本身一样,在现实中是不可能的。即使实施了禁令,也很可能不会产生效果(而且甚至可能算得上幼稚)。假定禁令实施的条件类似于去年那封人工智能和机器人研究人员公开信中的描述:禁止开发致命性全自主武器,但是不禁止遥控杀人机器、巡航导弹以及其他自动化程度各异的武器。在那种情况下,国际社会何以肯定冲突中部署的遥控武器并不是完全由人工智能代理控制的?控制武器的代理可以是人类,也可以是人工智能,而武器的界面无需变化。在两种情况下,人类都可能监控武器的行动。但是,在一种情况下,瞄准目标的决定是由人类做出的,在另一种情况下,则是由人工智能做出的。

这是我偏向于对自主武器进行强有力的监管,而非完全禁止该技术的理由之一。监管将提供必要的工具,用于分析和理解战争中越来越高的自动化程度。监管意味着将限制自主武器的开发和使用,也将打击非人性的杀戮与国家支持的暗杀。

如果监管是正确的道路,那么问题就变成:如何对目前只管辖人类代理的国际人道主义和人权法加以修改,使其能够应对战争中的自动化。当然,这将是一项微妙的工作,而且不是一件小事。但是,可以作为讨论基础的文献已经存在。是时候着手这项工作了——而不是追逐一个可能永远无法实施、即便实施也很可能无效的禁令。

 


Share: [addthis tool="addthis_inline_share_toolbox"]