EFF发布白皮书,为军事人工智能项目提供指导
2018-08-16 17:45:44爱云资讯阅读量:1,028
电子前沿基金会(Electronic Frontier Foundation)发布了一份白皮书,为军事人工智能项目的实施提供指导。
人工智能被用于军事目的是可怕的,但它最终不可避免。人们所能期待的最好结果是,它以一种合理的方式来解决人们的担忧。
在谷歌员工因该公司的国防合同而辞职后,白皮书发布就出现了。该公司为美国军方的无人机项目提供人工智能知识。自那以后,谷歌决定不再续签合同。
一些军事策划人员和国防承包商难以理解来自谷歌等硅谷巨头的员工的担忧,而电子前沿基金会希望能“弥合差距”以帮助他们。
EFF想要考虑三个核心问题:
在武器系统或军事指挥和控制中应用当前机器学习方法的主要技术和战略风险是什么?
国家和军队可以采取哪些适当的应对措施?
什么样的人工智能可以安全地用于军事用途,哪些种类不是?
有很多支持的概念是,任何杀死的决定最终都必须由人类操作员来做,即使人工智能推荐它。这确保了人类的同情在错误发生的时候起到了一定的作用,并保证了责任,而不是错误的编程。
在一篇博客文章中,EFF写道:
“机器学习技术已经得到了令人难以置信的宣传,事实上,它们在某些方面已经取得了令人兴奋的进展,但它们仍然很脆弱,受到新的失败模式的影响,并且容易受到各种形式的敌对攻击和操纵。
他们也缺乏人类通常赖以生存的常识和判断的基本形式。”
在这个时候,EFF强调这些观点是为了让人工智能远离目标选择、火控、大多数命令、控制和智能(C2I)角色,至少在可预见的未来是这样。
第一部分,我确定了人工智能的军事用途如何导致意想不到的危险和风险:
机器学习系统很容易被愚弄或被颠覆:神经网络很容易受到一系列新奇攻击的影响,包括敌对的例子、模型窃取和数据中毒。
目前网络安全的力量平衡大大有利于攻击者而不是防御者。
最近被称赞的人工智能的许多成就都来自于强化学习(RL),但是目前最先进的RL系统是不可预测的,难以控制,不适合复杂的现实部署。
部署的系统之间的交互将非常复杂,不可能建模,并且会受到难以减轻的灾难性故障的影响。因此,冲突有可能发生意外或升级的严重风险。
第二部分提出并详细阐述了减轻这些风险的议程:
支持和建立国际机构和协议,在军事环境中管理人工智能和与AI相关的风险。
专注于“杀死链”之外的机器学习应用程序,包括物流、系统诊断和修复,以及防御网络安全。
将研发工作集中在提高ML系统的可预测性、健壮性和安全性上。
与更广泛的学术和民间研究团体分享可预见性和安全研究。
专注于防御网络安全(包括在广泛的平台和民用基础设施中修复漏洞)作为一个主要的战略目标。
参与军事对话,寻求谅解备忘录和其他文书、协议或条约,以防止意外冲突的风险和意外升级。
最后,第三部分提出了未来考虑的战略问题,目的是帮助国防社区为构建安全可控的人工智能系统做出贡献,而不是让脆弱的系统和过程在未来几十年里导致后悔。