机器人即将崛起,人工智能真的会威胁人类生存吗?

2018-10-01 10:08:11爱云资讯阅读量:793

不可否认,得益于人工智能的发展,机器已经开始崛起。而这两年AI更是发展迅速,世界科技巨头包括谷歌、苹果、亚马逊,中国的百度、阿里巴巴、腾讯等都纷纷布局这一领域。

1.机器的崛起

人比猫聪明,这是一个显然的事实,但是人类和机器之间的比较却没有那么简单。计算机可能不擅长抽象推理,但它可以在一眨眼的功夫里处理大量数据。近年来,人工智能(Al)研究人员就使用这种强大的计算能力在线处理大量的数据积累、学术研究、财务记录等。他们开发的算法帮助机器从数据中学习,并把这些知识应用到新的环境中,这一点和人类相似。

计算机从看似无关紧要的数据中提取个人信息的能力引起了隐私方面的担忧。然而,许多Al系统的确改善了我们的生活,例如机器翻译让沟通更加容易、帮助诊断病情、提供现代化设备(把智能手机当作个人助理)。这一特殊问题彰显了Al取得的显著进步,也显示出人类面临的挑战。

很多Al系统都是专为特定应用程序而设计的,如下棋、驾驶飞机或炒股。A1研究人员有一个宏伟的原望:创造一个多才多艺并且更像人类的智能体。攀登这项研究高峰的任务是艰巨的。但是,Al领域的胜利所带来的问题似乎最好留给科幻小说:我们将如何确保机器的崛起完全在人类的控制之下?如果真正的智能计算机与人类共存,这个世界会变成什么样?

2.机器人即将崛起?各歌工程部新总监也这样认为

雷库兹韦尔认为“奇点”即人工智能超越人类思维之时。现在那些希望不朽的人类正参与着同样的探求――成为高科技的代表者。我们无法跟随雷*库兹韦尔。他一天要吃150片药,每周在补充维生素、腾食补充剂的情况下还要进行静脉注射,还要使用含有辅酶Q10、磷酸胆碱和谷觥甘肽等化学物的面霜。

他相信自己可以永生。他只要活得“足够长”,就能等到延长生命这一伟大技术的诞生(他现年66岁,深信“婴儿潮一代的人能够将这项技术变成现实”)。他还预言,2030年计算机会超越人类,变得比我们更加聪明。不仅在工作上比我们更加拿手,还知道前往巴希尔登的最佳路线。它们还将能够理解我们的话语、从经验中学习、讲笑话、讲故事。雷*库兹韦尔认为,到2029年,计算机可以完成所有人类能做的事,而且会做得更好。

但是,每个人都允许有自己的看法。只是库兹韦尔的理论更有可能成为现实。他是一个成功的技术专家和企业家,发明了许多彻底改变世界的设备――第一台平板扫描仪、第一个可识别字体的计算机程序、第一个将文字转换成语言的合成器等,他还是人工智能领域的一位重要和有影响力的倡导者,这意味着他势必会一直孤军奋战下去。雷库兹韦尔现在是谷歌的工程部总监。他相信人类可以永生,而且计算机在未来10年会有自己的意识。

3.人工智能威胁人类生存

如果世界终结,原因可能不是火灾、冰川或邪恶的机器人霸主。人类可能会因超级智能想要更多的回形针而毁灭。牛津大学马丁学院的哲学教授尼克博斯特罗姆如是说,他是人类未来研究所的创建者兼主管。他发明了“回形针最大化”的思想试验,以验证我们对超级智能设想的不足。博斯特罗姆在其著作《超级智能:方法、危险和战略》中提到,我们令那些机器人人格化,视其为数学天才。在科幻小说和流行文化的推动下,我们认为超级智能会出现错误,组成一个拥有编程软件的敌对组织来征服世界软件。

然而,这种假设从根本上误解了超级智能的本质。正如博斯特罗姆所说,危险未必来自于邪恶的动机,而是来自缺乏常识的强大的非人类代理人。设想一下,机器被设定了一种无害的、道德中立、以获得尽可能多的回形针为目标的程序。它收集到一些回形针之后,意识到如果自己变得更加聪明,就可以收集到更多的回形针,于是它尝试改进自己的计算程序,以便使运算能力和收集能力最大化。如果不受限制,它的能力会快速提高,并竭尽全力达成目标:收集回形针,没错,但还包括买回形针、偷回形针,或者将整个地球变成一个回形针工厂。“无害的”目标,糟糕的程序,最终导致人类灭亡。

当然,这种思想试验是夸张的,但是根据博斯特罗姆的观点,人工智能和先进技术的危害并不夸张。他以研究毁灭人类的威胁为职业,认为罪魁祸首很可能不是自然灾害。

4.世界将走向后人类未来?MartinRees勋毒认为超级智能可能毁灭人类

皇家天文学家表示,我们正面临着一个“无生物的后人类时代”,由于人类大脑的限制,Al将超越人类。他说,据估计,这个过程将于2040年开始。这位72岁的勋爵说,Al不受地球生物圈制约的这一事实使之成为更加致命的威胁。人工智能正以惊人的速度引领人类走向终极毁灭英国理论天体物理学家马丁*里斯认为,我们正在面临一个“无生物的后人类时代”

据估计,这个过程将于2040年随着机器人拥有与人类相抗衡的智能化开始。他认为,以“思考”的定义来说,在不远的将来,通过人类大脑完成的工作量和强度完全可以由Al的智能取代。Rees勋爵在《每日电讯报》的一篇文章中写道,68人类大脑在脑容量和处理能力方面有着化学和代谢的限制。

“也许人类已经接近了这些限制。”“但是硅基计算机没有这方面的限制。“基于以上原因,进一步发展的潜力可以像单细胞生物进化成人类一样富有戏剧性。”Al不受地球生物圈制约的这一事实使之成为更加致命的威胁。“星际和星际空间将是机器人制造商用于建造的首选地点”,皇家天文学家说。

5.人工智能是否构成威胁

有自主推理能力的机器,也就是所谓的Al离我们还遥远吗?到那时,用什么来阻止它们完善自己,直到人类不再需要它们?Al的前景发展引发了一片焦虑。天体物理学家斯蒂芬*霍金在接受英国广播公司采访时说道:“我认为人工智能的发展可能会造成人类的灭绝”。特斯拉创始人埃隆马斯克称Al是“人类最大的生存威胁。”微软前总裁比尔*盖茨也同意他的观点。

TALLINN先生:当今的Al还没有构成威胁。但是,如果考虑通用Al的长期影响,也就是说,当Al有了学习能力,能够制定战略并且其发展超过人类的时候,让我们想象一下那种世界上最先进的,并且能够预测人类关闭其开关的超级智能机器人,如果这种机器人在编程的时候阻止这种情况发生,那么人类将很难使用这个开关。

WSJ:这个问题到底有多严重呢?TALLINN先生:现阶段这还只是一个纯粹的理论问题。但是对于超级智能Al将只受物理定律和早期的初始编程控制这一假设来说应持谨慎态度。

初始编程是物理知识的一项功能,并且这项功能仍不完整!我们为自己设定的立场应该是以程序代码的方式指定一个Al“从这里开始,为我们创建一个美好的未来,”而且要非常清楚地知道现实会发生什么。

相关文章

人工智能技术

更多>>

人工智能公司

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>
关于我们|联系我们|免责声明|会展频道

冀ICP备2022007386号-1 冀公网安备 13108202000871号

爱云资讯 Copyright©2018-2024