安全能力有多强,人工智能就能走多远!用AI解决AI安全问题,是否可行?

2019-07-04 09:36:38爱云资讯阅读量:1,178

利用人工智能换脸技术,将视频中的脸换成另一张脸,每个人都可以和影视剧中的偶像明星同框,真假难辨……但如果视频场景不那么“友好”,原本酷炫好玩的AI技术或许就成为让人头疼的存在。AI技术背后隐藏着的安全问题可见一斑。

中国科学院院士何积丰看来,目前中国人工智能发展存在技术滥用、资源浪费、方向不明等问题,安全与治理需要顶层的战略性思考和系统性规划,要重视人工智能技术发展的经济成本和转化效益,避免产生技术滥用、结构性失业等问题,将人工智能发展纳入更广泛的治理议题范畴。

7月2日举行的上海市人工智能产业安全专家咨询委员会成立仪式暨第一次会议上,上海市经济信息化主任委吴金城在发言时便明确指出,“安全能力有多强,人工智能就能走多远。”这一观点,也得到安全专委会专家们的赞同。

保障人工智能安全方面,亟待解决的首先是AI法律和伦理道德问题。上海市法学会专职副会长施伟东建议:“能否尝试定期发布人工智能与安全的法则,同步开展立法研究,通过修法方式,进入国家和地方法规。”他进一步说明,上海需要在人工智能治理与安全领域中,加强地方法治机制和制度建设方面的探索,加强人工智能发展与法治的前瞻性研究,积极构建人工智能未来法治体系,用法治保障人工智能健康持续发展。具体体现在四个方面:一是抓好数据治理。开发公共数据是人工智能发展必不可少的一环,公共数据应依法申请开放,有选择地开放给相关企业,企业依照相关法律法规,承担保密和保管责任。二是开发者为算法公正透明创造条件,实现可监管。三是建立跨平台监管体系。随着5G、物联网的介入,所有的平台都应该打通。四是监管需要强大的技术支持,加紧部署用以监管的人工智能系统。

大数据时代,几乎任何领域都在不断产生数据信息,这些庞杂却拥有巨大信息量的数据,恰恰为人工智能提供了“燃料”,但是用户都是有隐私的,这就需要利用更多法律和技术手段去保护数据,保护用户隐私权。用AI自身的大数据处理技术来解决AI的安全问题,是否切实可行,仍然是一个疑问。而这自然成为了大家关注的焦点,引发专家们热烈讨论。

除了AI涉及的用户隐私、法律和伦理道德问题,阿里集团安全副总裁杜跃进认为,从广义上看,AI自身的安全问题还包括算法的公正性和垄断性。

早在两年前,数据科学家Cathy O'Neil便提出,不能指望市场来解决算法的公正性问题,“自由市场无法解决任何问题,因为人们对利益的追逐驱使算法变得不公正。”她的建议是,分析用于构建算法的数据是否含有偏见,从而检测算法数据的公正性,包括界定对于结果成功的定义,确保算法支持的是不带偏见的目标,以及检查整体的准确度、控制算法长期影响,避免数据的反馈回路。而目前,算法的公正性问题仍未解决,也已经不是AI自身能够解决的安全难题了。

上海观安信息首席专家张照龙在发言时指出,“AI+医疗”在不久后将实现5G设备+医院检查设备,患者在手机端便能实时获得检查报告和初步诊断数据,但问题在于,如何保证5G设备接入和传输过程中不被人通过恶意程序盗取并泄露数据,即算法和数据本身存在安全隐患。“特别要警惕算法的‘逆向攻击’,加强对算法本身的检验检测,”此外,张照龙的另一个建议是,建立一个安全的检验检测标准,可以不是那么细致全面,但可以有针对性地对AI技术按照应用场景和方式等进行分类,检测标准的方向和框架要比较完整。

对于大家普遍担忧的AI内部防控问题,华东师范大学计算机科学与软件工程学院密码与网络安全系教授曹珍富认为,可通过加强AI基础研究,遵循架构和模型的研究思路,尝试解决当前热门的隐私计算和访问控制方面密码算法的可用性问题,“做到一次密码算法保障所有的安全,才是真正的提高效率。”

相关文章

人工智能技术

更多>>

人工智能公司

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>
关于我们|联系我们|免责声明|会展频道

冀ICP备2022007386号-1 冀公网安备 13108202000871号

爱云资讯 Copyright©2018-2024