The authoritative guide to ensuring science and technology make life on Earth better, not worse.

自主武器、平民安全、监管与禁止

今年七月,人工智能和机器人领域的研究人员发布了一封公开信,呼吁“禁止超越人类有效控制范围的进攻性自主武器”,得到了诸如斯蒂芬·霍金等知名人士的背书。这封信表达的观点与“停止杀手机器人运动”(Campaign to Stop Killer Robots)自2013年起发表的观点不谋而合,将自主武器视为“对保护平民和……国际人权和人道主义法的根本性挑战”。但是,这一禁令倡议并未得到一致支持。有人认为,自主武器在战场上犯下的暴行将比人类少——而且开发自主武器甚至可能在道德上有必要性。以下,来自巴西、印度和美国的作者辩论这一问题:部署自主武器,到底是促进了还是有损于平民安全?对于自主武器的开发,全面禁止是否合适,还是应该建立有效的国际法规?

Round 1

禁止并监管自主武器

成群捕猎。在计算机网络中巡逻。陆、海、空、太空——到处都有部署。已部署的自主武器听起来当然很邪恶。但总体而言,此类武器是促进了还是有损于平民安全?

要回答这个问题,需要对“平民安全”这一术语有一个清晰的理解。如果这个词指的是在武装冲突期间保护平民生命安全,那么没错,自主武器未来很有可能促进其实现。然而,凭借现今的技术,还不足以能让自主武器区分战斗人员和非战斗人员,尤其是在叛乱和内战情况下。目前最佳的技术水平能实现的是识别雷达信号特征、热信号特征、形状——或者对于人而言,识别制服上的感应器。但是,这仅仅有助于识别自己一方的士兵,完全无益于提升平民安全。

假以时日,随着面部识别、手势识别、生物识别技术的进展,自主武器技术可能会更善于识别允许的目标。尽管如此,此类进展并不能保证平民不成为目标,也无法杜绝其他针对平民的威胁的兴起。例如,为了应对可能的威胁,自主武器未来可能对人群进行持续监视,类似于目前美国正在使用的空中监视系统“戈尔贡凝视”(Gorgon Stare)。如果类似的技术运用于自主武器,社会将面临一系列与武装冲突并非直接相关、但仍与平民安全相关的问题。

此外,“平民安全”的外延超越了敌对行为,也超越了国际人道主义法的范畴。即,无论在战争时期还是和平时期,都需要关注平民安全。在和平时期,适用的是另一种类型的法律——国际人权法,这是范围更广的一套关于“所有人类都应享有的公民、政治、经济、社会和文化权利”的条约、原则、法律和国家义务。

如果要让自主武器合乎国际人权法,此类武器必须至少符合所有国际、地区和双边人权条约,以及相应的国内立法。实际上,自主武器可能有必要促进人权。所以,一个国家只问自主武器能否保护其军事行动所在国家的平民,是不够的;自主武器还必须遵守其自己国家的法律。更微妙的是,自主武器还必须在战争法与和平法之间模棱两可的情况中通过法律的检验。

这一切都为自主武器设定了一个很高的标准。为了说明这一点,在此举例分析自主武器可能以何种形式违反《欧洲人权公约》。如果在欧洲境内部署自主武器,用于全方位监视,比如反恐行动,此类武器可能无法尊重私人和家庭生活权利(公约第8条保障的权利)。由于此类武器可能与网络而非机器人相关,所以也可能对思想、信仰和宗教自由(公约第9条保障的权利)造成负面影响。与网络相关的自主武器如果抑制了网上话语或表达,则有可能侵犯言论自由(第10条)。

当然,自主武器造成的最严重威胁是对生命权的威胁。有人可能认为“平民安全”指的正是生命权,而非私人和家庭生活权之类。但是,生命权——不仅由公约第2条保障,也由其他重要的国际法律文件保障——并非没有限制。很大程度上,生命权取决于使用致命武力的法律许可。

然而,在战争时期与和平时期,法律许可是有区别的。在和平时期(或者说“执法”)的情况下,要使用致命武力,前提是旁观者或警官受到了迫近的威胁。在战时,使用致命武力的门槛低很多。将这些区别运用于自主武器,意味着如果一个人被辨认为潜在或实际威胁,自主武器必须试图逮捕他(除非该威胁对于旁观者属于致命且迫近;对于机器则无威胁可言)。如果自主武器系统无法执行逮捕,比如因为是空中系统,那么选择似乎仅限于杀或不杀两种。但是,在此情况下杀死一个人,本身就是对生命权的侵犯。这样做还侵犯了公平审判权。剥夺人的公平审判权,是破坏法治,而法治本身正是创造和保护平民安全的最重要力量。

对每一个人的危险。超越这一切以外,潜在的自主武器和人工智能军备竞赛正威胁着平民安全以及相应的生命权。这样的竞赛会将全世界的平民暴露在过分的、潜在的生存风险之下。如果自主武器得到开发和部署,它们将最终驻扎于每一种空间——天空、太空、海洋、陆地和网络。它们将成群捕猎。它们将联入无人武器系统的系统网络中。他们将在计算机网络中巡逻。他们将无处不在。如此,认为只有一个国家会开发此类武器,未免太过妄自尊大。

许多国家都会得出结论,认为为了自己的国防,必须更快地开发更强大的人工智能和具有更高自主性的武器。但是,具有学习能力的自主系统可以迅速超越其创造者的控制范围。对于在其附近的任何人而言,它们都将成为一种危险。通过网络互相联系的自主武器,或者具有人工智能、联入互联网的自主代理,将不局限于单一地理疆域,也将不局限于武装冲突涉及的国家。建立和发动自主系统的副作用可能非常严重,以至于使用此类系统的风险大于任何可能的收益。

对于自主武器的开发,完全禁令是否是合理的回应,抑或有效的国际监管才是合适的途径?我在过去曾极力主张禁止自主武器——不禁止此类武器的风险太高。但是,无论有没有禁令,都需要有效的国际立法。许多信息和通信技术属于军民两用——既可用于军事,也可用于非军事用途。人工智能可以造福社会,其益处不应与其害处被一并抛弃。因此,各国必须走到一起,在专家和非政府组织的帮助下,制定务实可行的方案,应对机器人和网络安全领域中的自主技术,杜绝其武器化,允许对其加以有益的利用。因而,问题并不在于要不要禁止或监管,而在于如何尽可能将两方面都做好。

 

自主武器:走钢丝时的平衡

人工智能研究人员今年七月发布了一封公开信,呼吁禁止“超越人类有效控制范围的进攻性自主武器”,他们特别指出禁令可以阻止诸如“武装四轴飞行器”等有能力识别并“根据特定预设标准”杀人的武器。但这项禁令不会包括“所有目标均由人类决定的巡航导弹或遥控驾驶无人机”。所以,值得指出的是,这一禁令提议不会禁止一些已经部署的自主武器——因为这些武器被归入了防御性武器的类别。

其中包括美国海军的密集阵(Phalanx)——“一种快速开火、电脑控制、雷达引导的机炮系统”,该系统自1980年开始投入使用,而美国陆军此后也已采用其陆基形式。德国的全自动NBS Mantis防御系统也可以对导弹进行侦测、跟踪、交战和开火。以色列的铁穹导弹防御系统(Iron Dome)平时可自动运作,只有在感知到威胁时,会向人类征求是否开火的快速决定。

此类系统作为正规的战争工具一般得到接受。然而,完全自主的进攻性武器则是另一回事。能否在冲突中坚持保护平民的道德义务,是自主武器引发的难解之题。但是,在这场辩论中,很容易忽视另一种道德义务:保护那些因非国家行为体蓄意使用大规模暴力和恐怖手段而遭受威胁的无辜人民。

在我看来,任何禁止致命性自主武器的禁令提议,都必须考虑非国家跨国行为体实施的非常规、非对称、非典型战争,以及此类冲突对平民的影响。非国家行为体之所以能蓬勃发展,往往正是因为无法在当地平民人口中将其辨认出来。另外,他们还借助山地和沙漠等无人区,偷偷穿过容易渗透的国界线,并寻求同谋国家或国家行为体的帮助。军方有时可以胜过非国家行为体具备的优势,主要是通过善用技术,包括无人机(配以有效情报支持)。但是军方发现,要在常规意义上胜过非国家行为体,面临问题重重。相应地,军方在保护平民时步履维艰。

具备高度精密能力的全自主武器,能否改变这一状况?此类武器能否不对平民造成威胁,而是拯救暴力冲突地带中无辜的男女老少的性命?如果自主武器能使敌方目标丧失能力,同时将不想要的破坏降到最低,那么,是否应将此类武器用于打击非国家行为体和恐怖主义分子,就值得认真考虑。

现有的武器,还都算不上能杀死合理目标而不伤害平民的进攻性自主武器。现今的人工智能无法再造人类智能和判断,如果部署在战场上,会对平民安全造成根本性挑战。但是,非常重要的是,要认识到自主武器技术领域将与时俱进。通过未来的研究与开发,可能会让机器具备今天无法实现的定性判断能力。通过未来的技术进展,自主武器在战场上的表现或许可以更胜人类一筹。

最后,我支持对自主武器加以监管,而非完全禁止整个技术。但是,无论如何,地毯式的禁令似乎也不太可能实现。比如说,英国外交部已表示:“我们不认为有必要禁止”致命性自主武器,因为“国际人道主义法在此方面已提供了充分的监管”。在我看来,需要一个监管框架,对未来自主武器系统的致命性加以限制。还需要研发方法(例如程序设计的优化),有效限制与自主武器相关的平民死伤。

与当代冲突或战争的许多其他方面一样,最根本的考虑是成不成比例。事实上,我的观点是,只要致命性自主武器造成的附带损害,相较于此类武器对和平、安保、稳定以及对预防大规模平民死伤的贡献,并不显得不成比例,可以认为此类武器是合乎道德的。

 

自主武器与历史的诅咒

能够选择和攻击目标、无须人类介入的自主武器已经成为现实。如今,此类武器主要局限于在无人地区瞄准军事目标,但是发展迅速、具有强大处理能力、具备先进人工智能算法的计算机系统,可能很快会迫使各国做出切实选择,决定是否在城市地区的战争中部署全自主武器。

但是,自动化战争是否会如一些观察者所称,将附带损害降到最低——抑或只会造成大规模杀伤?答案并不明确。明确的是,人类就攻击目标所做的决定,常常是极为糟糕的。当然,讨论自主武器的伦理问题,辩论是否应该予以禁止、监管或任其无限制发展,都是重要的事情。但是,所有形式的非人化的杀戮,才是归根到底的问题。

优化伤亡。首先,“自主武器”的含义到底是什么?这一术语的界定并不清晰。从某种意义而言,巡航导弹和遥控无人机都是自主武器,也都已在战场上广泛部署。但当人们谈到自主武器,通常指的是具有最先进的人工智能、机器人和自动控制能力的武器,它们不需人类干预,就能选择目标、决定是否进行打击。

另外,还有必要理解“人工智能”指的是什么——或者说,更关键的是,理解“人工智能”指的不是什么。每当电影和奇幻小说里描绘人工智能,少不了达到人类智能水平的机器。目前,这样的机器连有没有可能实现,都缺乏科学依据。实际上,人工智能关注的是开发适用于推理任务(即解决问题、决策、预测、诊断等)的计算算法。人工智能还涉及对数据加以归纳或分类——称为机器学习。智能系统可能包括计算机视觉软件,其最终目标是对图像进行有意义的阐释。此类功能对好莱坞而言并不是新鲜事,但对自主武器开发而言有着重大意义。

有人称,将人工智能运用于战争,尤其是通过自主武器,或许可以在战场上优化伤亡情况。这种观点认为,智能机器人系统可以准确、高效地识别目标。此类系统在交战时,可将附带损害降到最低——尤其是相较于许多由人来执行的战斗任务,例如10月3日一架美国空军武装直升机对阿富汗境内一座无国界医生组织医院实施攻击。自主武器可在提升战斗任务成功率的同时,将平民伤亡降到最低。

但是,类似的论点也可以用于武器历史中的大多数创新,从火药一直到第一次伊拉克战争中的“外科手术式袭击”(后者在电视上描绘得如此光辉)。而即便新式武器能够“优化”杀戮,它们也会使其非人化。千百年来,士兵瞄准的一直都是人。现在,士兵优势瞄准的是类似电子游戏中的目标。未来,他们可能根本无需瞄准,把这个任务留给机器就行了。但是,全自主武器系统与巡航导弹或遥控军事无人机之间的区别,其实与其说是伦理或道德方面的,不如说是技术方面的。如果现代社会愿意将战争当作电子游戏一般接受的话——正如人们在1990年代接受了“外科手术式袭击”一样——那么自主武器已经得到接受,成为了战争的一部分。

最近,一群科学家——包括笔者在内——联名签署了一封公开信,呼吁禁止“超越人类有效控制范围的进攻性自主武器”。现在重读这封信,我新注意到其中提议的禁令只是针对“可无需人类干预而选择目标交战”的武器,而排除了“所有目标均由人类决定的巡航导弹或遥控驾驶无人机”。从某种意义而言,这种方案暗示着,大量乱杀滥杀——不论是士兵还是平民,成人还是儿童——是可以的,只要目标由人决定。但是,审视人类历史,很难找出人类控制武器远优于自主控制的理由。举一个20世纪的例子——可选的例子太多——人类控制并未阻止1945年8月对广岛和长崎约20万平民的大规模杀戮(但是,如果科学家一意识到可以造出核武器,就开始对其开发和使用加以有效的国际监管,那么或许可以避免此类暴行。)

我是以和平主义者的身份签署这封公开信的。任何提议禁止开发和生产武器的信,我都愿意签名。但是,我并不认为,对自主武器的全面国际禁令可以阻止其开发——毕竟,对先进致命性智能机器人系统的研究已经进行了数十年。核武器和可用生物武器的开发,所需的实验室非常专门化且昂贵,所需的材料也很容易跟踪。相较于此,制造自主武器很容易。任何现有的智能机器人实验室,只需少量资金和几周时间,就能从零开始制作出一个可移动的、能对任何移动物体进行自主跟踪和开火的机器人。这样的机器人一遇到楼梯就会被卡住,但仍然是一个基本的自主武器。

没有可行的方法可以确保人们永远不会制造自主武器。对此类武器开发的禁令,无异于发出邀请,鼓励人们设立地下实验室,从而使我们无法控制此类武器,无法对开发此类武器的实体进行问责。可行的是——通过有效的国际监管——确保对自主武器的开发进行逐一的分析和跟踪。应有严格规则指导自主武器的目标选择,而此类武器的部署必须遵守国际人道主义法——如果事实证明无法遵守,那么就永远不应在战场上部署。最后,必须建立一套体系,对任何开发和部署自主武器、但未能遵守指导监管原则的组织进行问责。

Round 2

自主武器:不仅是更智能的智能炸弹

随着自主武器的技术能力提升,未来其战场决策能力将超越人类——很容易做出这样的假设。毕竟,人类会疲倦,容易被误导,或者意识形态扭曲,还可能缺乏良好的判断力。技术先进的武器却没有任何这些短板。

但是,这种假设并没有事实依据,据此对自主武器的未来进行决策,是不明智的。

本次圆桌讨论中,我的同行保罗·桑托斯写道,没有科学证据能支持“具有人类智能水平的”机器这一设想。但是,他并未摒弃“自主武器可以在提升战斗任务成功率的同时,将平民伤亡降到最低”这一观点。这里,他在两种立场之间做着微妙而又有些奇怪的权衡——谈到禁止还是监管自主武器时,他也是这样做的。他希望自主武器根本不存在,但又担心如果事实证明禁令不可行,将会导致地下实验室的产生。所以,他偏向的立场是监管。

另一方面,莫妮卡·詹索利亚十分关心如何保护平民不受恐怖主义分子伤害。据此,她论证了为何不应该禁止自主武器。但是,自主武器系统与恐怖主义没有任何关系,并不能成为瞄准打击恐怖主义分子的一种方法,也不是“赢得”反恐“战争”的一种方法,而只是无需人为干预就能对目标进行侦测、选择和开火的武器。

詹索利亚的观点似乎是,自主武器未来将有能力分辨恐怖主义分子和平民(也即在人与人之间进行侦测和选择),如果要认同这一观点,也就意味着认为:未来,自主武器系统所配备的人工智能,其复杂程度足以超越人类智能,并具有一定的分辨能力。

如果我们不认为自主武器技术所依靠的人工智能可以超越人类智慧,那就很难理解此类武器系统怎么可能有能力识别不穿制服、但活跃参与敌对行动的个人。用加州大学伯克利分校人工智能专家斯图尔特·罗素(Stuart Russell)的话来说,“‘战斗人员’并不是一种视觉类别。”事实上,这是进行着一系列未定义活动的一类人。这意味着,除非人类穿戴上自主武器能够侦测的传感器,否则人工智能将无法在复杂的战场空间中、在人类进行一系列未定义行为时,“对图像进行意义阐释”(借用桑托斯的话)。

要获得对自主武器的清晰认识,意味着摒弃那种认为它们只是更智能的智能炸弹的观点。能够“限制附带损害”的精准军火之所以称其精准,只是因为其有能力找到时间和空间中的一个特定位置。这一位置,无论是由人类使用激化画出,还是通过坐标和卫星导航,依然是由人来设定的。是人选择了那个目标。武器的精准度,只与其落在那一点上的可能性有关。另一方面,自主武器会自己选择目标。它们会选择要向目标发射哪种军火。所选的军火可能是“智能炸弹”,也可能是“非智能炸弹”,但问题不在于精准度。关键问题在于目标的选择

因此,将自主武器错误地归类、讨论在不适于开展行动的环境中部署自主武器,或者假定开发此类武器将促成更为干净利索、附带损害更少的战争,都是在混淆视听,于事无补。这样的思路并不能解决自主武器所摆出的实实在在的挑战。国际社会以及联合国等国际组织真正需要的,是在此问题上及时地、明确地表明立场。监管如何实施?禁令如何构成?这些问题是成员国必须回答的。但是,是时候回答这些问题,而不要再无意义地闲聊了。

 

自主武器与寻求平民安全的艰难道路

本次圆桌论坛的其他作者对自主武器表达了合理的担忧,但对恐怖主义分子造成的平民死伤考虑得太少——未来,经有效监管的自主武器或将减少此类伤亡。

致命性自主武器需要有效的国际监管——本次圆桌论坛所有作者都认同这一点。其中,希瑟·罗夫论证了为什么除了监管以外,还需全面禁止自主武器。但是,全面禁令不太可能施行。于是,通过有效的体制,实施国际监管成了前进的唯一可行道路。理想的情况是,监管体系应既能对因使用自主武器而可能造成的附带损害加以限制,又能对此类武器的开发和扩散加以监管。但是,监管体系的最终目的在于,使自主武器更有可能促进而非有损于平民安全。

自主武器有没有可能危及平民?当然有可能。正如罗夫在第一轮中的论述,借助未来的技术进展,自主武器虽将有可能识别允许的目标,但是技术进展“并不能保证平民不成为目标”。这种观察虽然不错,但忽视了那些隐匿于当地平民中不被察觉、以此对平民构成威胁的非国家行为体。以印度为例。据新德里的冲突管理研究院称,1988年以来,将近21,000名印度平民和安保人员因恐怖暴力而丧生。自主武器仍是一种发展中的技术,无法断言其必将促进而非有损平民安全;但是,可以肯定地论证的是,没有自主武器,平民安全必将受到非国家行为体的严重侵害。的确,在这样的情况下,很难对罗夫寻求的那种“平民安全”术语达成“清晰的理解”。面临叛乱、内战或其他类型的非对称暴力,任何寻求平民安全的道路都将充满艰难险阻。

另外,保罗·桑托斯的论点则是“自主武器已经得到接受,成为了战争的一部分”,因为现代社会已经“将战争当作电子游戏一般接受”。但是,在印度这样的地方,社会根本没有接受战争——非国家和跨国行为体将非常规、非对称、非典型战争强加于印度人民。此类组织从同谋国家或国家实体那里获得开展恐怖活动所需的资源。此类战争在危及平民的同时,还会造成区域不稳定,而区域不稳定则可能滋生更多恐怖主义或武装叛乱。

在开放、民主、价值观崇尚自由的国家中,领导人努力以负责任的国际利益攸关方身份行事,不会以无辜平民为目标。非国家网络则为了达成其目的,针对平民使用大规模暴力。这种两方面不平衡的态势将民主国家置于劣势地位,并将平民置于严重风险之下。经有效监管的自主武器系统如果可以预防大规模平民死伤,同时将附带损害降到最低,那么此类武器就值得我们认真考虑,将其作为一种合法的技术运用于冲突和战争中。

自主而不可问责

虽然本次圆桌讨论的参与者在第一轮中一致认为,自主武器应该接受国际监管,但各位都没有详细讨论如何建立一个监管体系。

也许这是因为,三位作者所关注都是虽无争议、但仍有必要开宗明义的论点。无论是战争还是和平时期,平民安全都应该是最高的优先事项。现今,自主武器尚不能最大程度提升军事行动成功率、降低附带损害风险;但未来有一天,此类武器或将具备这些能力。如果先进的自主武器有一天被部署,可能有损基本人权。

开门见山之后,莫妮卡·詹索利亚和我都论证了为什么应该监管而非禁止自主武器——但她和我采取这一立场的理由却非常不同。另一方面,希瑟·罗夫则论证了为什么既要监管,又要禁止。但是,所有作者也都只是粗略地讨论了如何建立监管——不可否认,这的确是一个有难度的议题。按其定义,自主武器应该能自己做出决定。那么,对于它们犯的罪,应该如何确定责任?致命的自主机器一旦失灵,该归咎于谁?

“由于系统错误造成问题”——想想自己听过多少遍这样的话了。此类说法一般就能挡住进一步的讨论。所以,不难想象这样的情况:无辜平民被杀戮,可能多达几十人,但无人对此负责,因为罪过在于“系统错误”。而且,又有谁会愿意被怪罪?部署并预期自主武器与合适的目标交战的任务指挥官?与设定目标完全无关的武器开发人员?

自主武器其本身就会引发问责缺口。但是,为自主军事机器的行为确定责任,与在其他军事行动中确定责任,其实不应该有太大区别:责任应该跟随指挥链。因此,下令使用自主武器的组织或个人应该对其行动负责。“系统故障”绝不能成为不必要伤亡的正当理由。如果将这一理念纳入国际人道主义法和国际人权法——目前只管辖人类行动者,而非机器——那么这些国际法领域(罗夫已在第一轮中详细叙述)可能将为自主武器的监管提供充分依据。

从空中轰炸到核武器,人类已经学会忍受军事发明。人类甚至学会了忍受恐怖主义的狂暴行径。类似地,人们将适应具有更高自主性的杀人机器。但绝不能因此而不将那些应该为战争罪行负责的人绳之以法,无论犯下战争罪行使用的是什么工具。

但是,国际社会到底能不能发现自主武器杀死无辜平民的事件,目前连这一点都不清楚。在这方面,围绕着美国军方无人机计划的秘密,令人无法产生信心。在战争中,问责性缺口很常见。造成此类缺口的原因是:军事行动固有的保密性、媒体的浅尝辄止,以及源于无知的公众态度。不论有没有自主武器,问责缺口都将继续存在;相较于自主武器,问责缺口才是让《公报》的末日时钟接近午夜的更重要因素。

Round 3

区分自主武器和自动武器

在本轮圆桌讨论中,我的同行保罗·E·桑托斯和莫妮卡·詹索利亚都支持监管而非禁止自主武器。但他们都未能精确定义要监管的是什么。这是一个令人担忧的疏忽——凡是支持对武器或武器行为进行监管的人,都应该对监管将引发什么有一个非常清楚的概念。

根据美国国防部的定义,自主武器是不需人类操作员的干预,即可选择目标并开火的武器。但是,这里的“选择”到底是什么意思?“干预”又是什么?这些问题比表面看起来更微妙。

“选择”的意思可以是扫描某个空间,寻找一个传感器输入——例如雷达特征或面部图像。但是,在这种情况下,武器并非在选择目标,而是在搜捕一个预先选定的目标。实际上是有一个人通过设定目标参数程序,或者通过识别目标对象或区域,从而选定了目标。但是,此类武器并非真正自主,而是自动。

话说回来,“选择”也可以仅指感知一个目标。但是,现代军队会认为这样的解读有问题。许多现有的武器系统——巡航导弹、反火箭弹和迫击炮防御系统、鱼雷和水雷——感知目标并对其开火。不太可能有国家将这些系统归为自主武器。

那么,到底是什么将自主武器和自动武器区别开来——并使其受制于监管或者禁止?为了解答这个问题,让我来对复杂的自动武器与有限学习的自主武器系统作一区分。

复杂的自动武器没有学习能力,也没有改变目标的能力。但是,由于其行动能力,以及在某些情况下的自主导航能力,它们能够对平民人群造成灾难。进一步而言,它们无法坚持必要性、预防措施、相称分寸的原则。因此,它们最有可能被用作反器材武器,而不太可能被用作反人员武器。

与此同时,有限学习武器一经部署,既能学习,又能改变分支目标。它们是真正从一系列对象或人中选择一个目标。简而言之,它们追踪军事目标——正如士兵决定是否对一个人、一辆车、一栋建筑开火,或者如何最好地“攻占山头”。这些才是真正的自主武器系统。(顺带提一句,没有一个国家公开支持针对人类使用自主武器。即便是反对禁止或反对监管自主武器的国家,也坚持只能将自主武器系统用于“合适的行动中”和“有序的环境中”。所以,詹索利亚认为自主武器可用于反恐行动,是没有外交和军事依据的。)

我的同行们认为,我否认了人工智能有可能超越某些人类能力、比人类更适合进行某些任务。对以上内容,我并未有任何否认——而这正是为什么我担心有限学习武器如果被开发和部署,将造成风险。这些风险如此之大(包括不仅改变战争的面貌,更是改变和平时期平民安全和自由的面貌),以至于必须全面禁止造成这些风险的武器。为能够进行“定性判断”的未来武器鼓掌之前(詹索利亚似乎正在这样做),最好记住一点:自主技术将经过一段艰难、危险的中间地带,经历“有限的”智能以及几乎没有判断能力,只有在此之后,才可能出现“定性判断”。

艰巨的问题。所以,从实际层面而言,对于本次圆桌讨论研究的武器系统,应该做些什么?

就复杂的自动武器而言,各国政府必须仔细考虑是否应该在复杂环境中部署此类武器。各国应该对其使用方式进行监管。但是,真正的自主武器系统——有限学习甚或更先进的武器——应该禁止。使用此类武器将对平民会造成巨大风险,可能会使冲突升级,可能会引发人工智能领域的军备竞赛,还可能需要在所有作战空间(以及城市)中布置传感器网络。事实上,单单是渗透在各个角落的监控系统,就足以令人担忧,足以因此而禁止自主武器。

宣称禁令不太可能实施,或者说设立了禁令也不切实际——就像我的同行那样的说法,并不具有说服力。激光致盲武器等其他技术,也在开始使用之前就被禁止——为什么自主武器不能这样?正如化学武器在全世界的科学家和化学产业的支持下已被禁止,自主武器的挑战也可以通过科学家、机器人专家和技术产业的合作来应对。此外,一些军队已经有能力在武器中融入有限学习算法,但由于不确定性和风险,尚未部署此类能力。既然军方已经表现出克制,为什么不敦促他们完全拒绝自主武器?

自主武器将带来艰难问题和严峻挑战。应对这些问题和挑战,时不我待。对于未来冲突的本质宣扬盲目乐观的态度,于事无补。

 

自主武器:监管得当则有用

古巴、厄瓜多尔、埃及、巴基斯坦、梵蒂冈——2014年,在联合国的一场关于致命性自主武器的大会上,派出代表参会的87个国家中,只有这五个提交了敦促禁止自主武器的声明。与此同时,数十个国家可能正在开发军事机器人。在这种环境下,要禁止致命性自主武器,似乎非常不可能——即使下达了禁令,也不太可能实现。

本次圆桌讨论中,我的同行希瑟·罗夫似乎认为自主武器不可能在战场决策方面超越人类。对于罗夫的这一观点,保罗·E·桑托斯进行了反驳——例如,他援引的研究表明,人脸识别算法在人脸配对能力上已经超越了人类。还有一个论点,即正是因为自主武器不是人类,它们在某些情况中的表现可能会超越人类。传统基金会(Heritage Foundation)学者史蒂芬·格罗夫斯(Steven Groves)认为,自主武器“在危险环境中的表现可能优于人类,人类作战者的行动可能会受恐惧或愤怒影响。”

与罗夫提出的观点相反,自主武器可以发挥一系列军事作用——同时完全遵守国际人道主义法。格罗夫斯认为,在允许的环境中行动的自主武器有一天或将能够攻击沙漠等偏远地区的坦克编队——或者攻击远离商业海运航线的战舰。自主武器的此类用途符合国际人道主义法中的区分原则——要求冲突各方区分平民和作战者,只能直接攻击后者。在没有平民或民用对象的作战区域,自主武器不可能违反区分原则。

类似地,部署在空中的自主武器在执行重要军事职能时,可以遵守国际人道主义法中的攻击相称原则。例如,自主武器可以在不允许民用飞机飞行的空域追捕敌机。通过编制程序,可使自主武器借由外形、热信号、空速阈值等特征识别敌机——这些特征都可将其与民用飞机区分开来。此类情况中,攻击敌机之“利”不可能小于过度平民伤亡风险之“弊”。这种风险接近零。格罗夫斯认为,水下的情况大抵相同——自主武器系统可以执行水域巡逻,攻击敌方潜水艇,而不会造成过度附带损害的风险。罗夫显然根本没有考虑到这些,因而得出了以偏概全、反对自主武器的论点。

单凭传统的军事战略和战术,无法充分应对由非国家和跨国行为体对自由民主国家发起的某些挑战,包括非常规、次常规、非对称和非典型形式的冲突。由于惯例要求各国保持相称分寸、将附带损害降到最低,因而各国必须限制所用武力的范围和强度。非国家行为体并不遵守惯例。这造成了未来战场必须应对的政治和心理不对称。如果妥善监管下的自主武器可在这方面提供协助,就不应将其拒之门外。

在第一轮中,我提出:“只要致命性自主武器造成的附带损害,相较于此类武器对和平、安保、稳定以及对预防大规模平民死伤的贡献,并不显得不成比例,可以认为此类武器是合乎道德的。”我的立场得到了传统基金会学者詹姆斯·杰·卡拉法诺(James Jay Carafano)的共鸣,他认为自主武器“可以提升……战场有效性,同时……降低人员死伤的[附带]损害。”我坚持自己在第一轮中的表述,并且反对不可能、不现实的自主武器禁令。

禁止自主武器:不可行且无效

在一些人们认为需要“智能”的事情上,电脑的表现早已超出人类。一个著名的早期例子是二战时期在英国布莱切利园(Bletchley Park)开发的Bombe机器,它帮助英国破解了由德国军方Enigma机器加密的消息。1997年,IBM计算机“深蓝”(Deep Blue)在一场六局比赛中打败了国际象棋世界冠军加里·卡斯帕罗夫(Gary Kasparov)。2011年,IBM研发的“能够使用自然语言处理和机器学习、从大量非结构化数据中洞察信息”的“沃森”(Waston)现身电视竞猜节目《危险边缘》(Jeopardy),其表现超过了两位前任冠军。所以,我的同行希瑟·罗夫在第二轮认为我的论述自相矛盾——一方面人工智能可能永远无法达到人类智能水平,另一方面未来自主武器可能在一些军事职能中的表现可能超过人类战士——对此,我拒绝接受。在我看来,不存在矛盾。

类似地,罗夫驳斥了本次圆桌讨论的第三位参与者莫妮卡·詹索利亚的论点:自主武器可能在打击恐怖主义中起到作用。在罗夫看来,机器永远无法区分恐怖分子和平民,因为这种能力需要一种“人工智能,其复杂程度足以超越人类智能,并具有一定的分辨能力”。但是,一些研究发现表明,在进行面部配对时,尖端的人脸识别算法可以超越人类。的确,为了使自主武器具备有效打击恐怖主义的能力,关键要使其能够在各种观察条件下精确识别人脸。当然,机器感知的基础算法目前受到一些局限,例如无法理解快速变化的情况。但是,我认为没有理由未来不能克服这些障碍(即便到最后,可能更适合将机器感知部署于监视系统,而非武器化机器)。

部署自主致命系统用于打击恐怖主义的真正问题在于:置恐怖主义嫌疑分子于死地,而剥夺他们公平受审的权利,可能构成国家暗杀。而且无论如何,“恐怖主义”这一概念本身充满意识形态争议。例如,18和19世纪的美洲独立运动,在当时的欧洲国家首府或许被理解为恐怖主义运动。

微妙的工作。罗夫主张禁止自主武器。作为和平主义者,我也认为全面禁止是理想中最佳途径。但是,武器设计中已经融入了如此多的自动化,以至于禁止致命自主武器似乎和停止战争发展本身一样,在现实中是不可能的。即使实施了禁令,也很可能不会产生效果(而且甚至可能算得上幼稚)。假定禁令实施的条件类似于去年那封人工智能和机器人研究人员公开信中的描述:禁止开发致命性全自主武器,但是不禁止遥控杀人机器、巡航导弹以及其他自动化程度各异的武器。在那种情况下,国际社会何以肯定冲突中部署的遥控武器并不是完全由人工智能代理控制的?控制武器的代理可以是人类,也可以是人工智能,而武器的界面无需变化。在两种情况下,人类都可能监控武器的行动。但是,在一种情况下,瞄准目标的决定是由人类做出的,在另一种情况下,则是由人工智能做出的。

这是我偏向于对自主武器进行强有力的监管,而非完全禁止该技术的理由之一。监管将提供必要的工具,用于分析和理解战争中越来越高的自动化程度。监管意味着将限制自主武器的开发和使用,也将打击非人性的杀戮与国家支持的暗杀。

如果监管是正确的道路,那么问题就变成:如何对目前只管辖人类代理的国际人道主义和人权法加以修改,使其能够应对战争中的自动化。当然,这将是一项微妙的工作,而且不是一件小事。但是,可以作为讨论基础的文献已经存在。是时候着手这项工作了——而不是追逐一个可能永远无法实施、即便实施也很可能无效的禁令。

 


Share: [addthis tool="addthis_inline_share_toolbox_w1sw"]