评论:我们究竟该不该禁止人工智能武器研发

2018-08-09 11:07:12爱云资讯阅读量:1,171

很多人一直在讨论将人工智能技术应用于开发武器所产生的道德问题,这是否会导致AI武器使用禁忌的出现?

这场围绕人工智能武器道德问题的辩论涉及到每个人,从倡导团体、政府官员到谷歌工程师。许多人认为人工智能武器带有非常重要的道德问题,这就引出了一个疑问,这些道德问题以及反人工武器倡导组织的努力是否会导致人工智能武器被禁止使用或者引发强烈禁忌的出现?有些人认为 ,国际协议足以阻止AI武器被应用于世界军队。然而,围绕人工智能武器使用禁忌的讨论取决于更为直接的因素:它们在战场上的有效性。

今年4月,谷歌员工以非常公开的方式抗议公司参与五角大楼计划(Pentagon program),该计划使用人工智能来解释图像以改进无人机对目标的攻击。当然,人工智能武器的风险和道德问题是真实存在的(就像任何新的战争技术一样)。此外,大多数人工智能武器的反对者通常都指出了这样一个道德问题:使用计算机算法来选择和消除人类目标,而控制过程却没有人类参与。

然而,人工智能武器所带来的危机已超出了战争的道德问题。有些人指出 ,如果人工智能武器在世界范围内扩散,危机会呈现出动态、不稳定的状态。如果危机涉及的两个国家能够获得可以轻易进行如此迅速破坏的武器,那么先发优势(first mover advantage)可能会使这些国家走向战争而不是远离战争。例如,人们常常认为先发优势是第一次世界大战爆发的原因。部队的迅速流动和武器的进步使得军事规划人员相信那些先行动的人将拥有不可逾越的优势。因此,如果对方正准备行动,那么你就会希望在对方行动前先发制人,AI可以创造类似的激励。

(图:2016年7月8日,第5海军陆战队第3营在加利福尼亚州彭德尔顿海军陆战队营地的模拟战斗环境中测试了新设备,如多功能战术运输。)

大多数人认为化学武器使用禁忌之所以存在,是因为它们是一种特别可怕的战争武器,国际社会同意禁止使用它们。但是,国际社会禁止某些事物并不代表这些武器足以被阻止使用。姑且先把对人工智能武器的使用禁令是否切合实际放在一边,人们在战场上使用或不使用人工智能武器的唯一决定因素是一些更为直接的结果:有效性,如果AI武器有效,各国便会在战场上使用它。

以往被开发的新战争工具也证明了这一点。在这些新武器被开发出来时,通常会被要求禁止使用。约翰·埃利斯(John Ellis)在《机枪的社会历史》(The Social History of the Machine Gun)一书 中解释了早期美国使用机枪的独特性原因,以及机枪最终战胜封建观念并遍布战场的原因。与此相对的是,在传统观念里,人们认为只有勇敢的人可以赢得战争,而不是依赖花哨的武器。

类似的武器禁忌以及对战争行为制定适当的规则提供了一些例子,我们可以从中获知人们对人工智能武器的期许。1898年,来自世界各地的代表在日内瓦召开会议,讨论战争中的规则和法律。人们尤为关心的是对化学武器的使用,化学武器是当时正在开发的一种新武器。大会期间,即使化学武器被规定禁止大规模使用,代表们仍然感到担心。

最终讨论得出的公约要求:禁止使用窒息性、有毒或其他气体。只有两个国家对这项禁止表示反对,美国和(支持美国的)英国。美国持反对意见的观点是,各国应该尽一切可能利用所有手段尽快结束战争,他们认为禁止使用化学武器只会延长冲突的时间,最终导致更多人死亡。他们对美国内战仍记忆犹新,这场战争仅在三十三年前结束,此外,这是一场人们预计会很快结束但并没有并伴有大量伤亡的战争。

1898年,美国代表大使Alfred T. Mahan说:“对于新武器来说,总有一种反对意见认为具有战争危险的武器是野蛮、残暴的,然而,人们最终还是采用了这种武器。”那么,为什么一种禁忌形式会围绕特定的具有战争危险的武器,而不是其他具有战争危险的武器呢?理查德·普赖斯(Richard Price)观察到 ,“纵观历史,许多新武器作为一种新技术被引入战争时都会引发道德抗议的呼声。然而,正如长弓,弩,枪械,爆炸弹和潜艇等例子所表明的那样,随着这些创新被纳入战争的标准技术,相关道德顾虑随着时间的推移就会逐渐消失”。

最终,围绕化学武器会形成使用禁忌。虽然这并不妨碍化学武器被人们使用(在最近的伊拉克战争中化学武器被多次使用),但这肯定会对其被广泛使用产生威慑作用。但是什么推动了化学武器被有限使用呢?“禁忌”实际上能够在不停止部分国家的情况下阻止了其他国家使用化学武器吗?

由于化学武器在战场上不是一种特别有效或有用的工具,所以认为禁忌是阻止其被广泛使用的唯一因素,这种论点更不具有说服力。产生足够浓度的气体云是很困难的。在战争的迷雾中,在不同程度的“摩擦”下,瞄准目标变得更加困难。在精确制导武器的时代,武器无法击中离散目标似乎尤其无用。此外,如果风起作用或改变方向,也不能保证部队不会受到影响。这些限制使得这种武器只对已经处于极度绝望境地的领导人和政权具有吸引力。

现在对比一下潜艇的发展。潜艇最初是在化学武器被广泛使用的同时被开发出来的,也曾受到类似的对待,人们认为潜艇是一种不光彩的武器,潜伏在地下,匿名杀死它们的目标。在不受限制的潜艇战崛起时期中尤其如此。人们还呼吁禁止使用潜艇,1936年的伦敦议定书试图对潜艇战采取制定限制。

(图:俄罗斯Uran-9无人驾驶地面车辆)

那么为什么化学武器发展成为禁忌而潜水艇没有呢?这告诉我们围绕人工智能武器使用禁忌的潜在发展趋势是什么呢?这里考虑的三种新战争技术都引发并造成了重大的道德困境,并且仍然被许多人视为是不道德的。然而,在这两个历史例子中,无效的工具产生了一个禁忌,而有效的工具却没有。那么,人工智能将成为一种有效的战争工具吗?

人工智能似乎极有可能成为战争的有用工具。尽管人们应该避免使用诸如“军事革命(evolution in military affairs)”之类的术语,但很容易看到这种新型武器系统的前景。然而,人们不应该期待一场终结“现代系统(modern system)”战争的剧变。尽管人工智能武器可能会提高军事效率,但随后的对策发展可能会阻止它们颠覆现代的战争体系。

人工智能在军队中的承诺之一,似乎可以保证其被采用,这就是它的广泛适用性。人工智能可以用来提高效率,不仅仅是作战行动上。人工智能可以改善补给线,加强对新士兵的训练,提高情报收集和处理的效率但人工智能在作战行动中的有效性似乎特别有前景。人工智能并不是一个完全革命性的概念,它被应用到军事领域,这仅仅是现代战场数字化和机械化下的一个合乎逻辑的步骤。在911之后,电子和机器人武器系统进入现代军队的过程越来越快。根据一篇文章所述,“已经有90个国家和非政府组织拥有无人机,30个国家拥有武装无人机或计划开发它们。”ISIS采用无人机是一个著名例子,证明了人工智能武器的潜力。

最后,人工智能武器将对美国军方正在实施的第三次抵消战略至关重要。机器学习、人机协作、以及无人机群都是可能会破坏国家之间的平衡的潜在系统。我们已经看到了一些战术在战场上被使用。例如,俄罗斯声称,无人机群袭击了其在叙利亚的一个基地。

在战场上早期采用类似于AI的策略,投入此类技术的国家数量之多,以及展示其潜力的现有武器系统,所有这些似乎都表明,人工智能武器将是非常有效的战争工具。因此,虽然人们应该对工具的伦理和限制进行有力的讨论,但不太可能围绕工具的使用制定出一个强制的禁忌。

相关文章

人工智能技术

更多>>

人工智能公司

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>
关于我们|联系我们|免责声明|会展频道

冀ICP备2022007386号-1 冀公网安备 13108202000871号

爱云资讯 Copyright©2018-2024