清华用忆阻器制人工神经网络芯片,能效比GPU高两个数量级

2020-02-26 09:47:18爱云资讯阅读量:1,201

他们构建了一个五层的卷积神经网络进行图像识别,获得了96%以上的高精度,结果显示,基于忆阻器的卷积神经网络比目前最先进的GPU的能效要高出两个数量级。

传统的计算机将数据储存在内存中,然后传送到处理器运算。这种来回“搬运”数据的活动耗费能源和时间,被认为是冯 诺依曼计算架构的核心瓶颈。

而人类的大脑却并非如此,而是直接在记忆体里计算。被认为具有“存算一体”潜力的忆阻器,因而成为类脑计算领域的热门器件。

近日,清华大学微电子所、未来芯片技术高精尖创新中心钱鹤、吴华强团队与合作者在顶尖学术期刊、英国《自然》杂志(Nature)在线发表论文,报道了基于忆阻器阵列芯片卷积网络的完整硬件实现。

该存算一体系统在处理卷积神经网络(CNN)时能效比前沿的图形处理器芯片(GPU)高两个数量级,可以说在一定程度上突破了“冯诺依曼瓶颈”的限制:大幅提升算力的同时,实现了更小的功耗和更低的硬件成本。

基于忆阻器芯片的存算一体系统 来源:清华大学

什么是忆阻器?

忆阻器,全称记忆电阻器(Memristor),是继电阻、电容、电感之后的第四种电路基本元件,表示磁通与电荷之间的关系,最早由加州大学伯克利分校教授蔡少棠在1971年预言存在,惠普公司在2008年研制成功。

简单来说,这种组件的的电阻会随着通过的电流量而改变,而且就算电流停止了,它的电阻仍然会停留在之前的值,直到接受到反向的电流它才会被推回去,等于说能“记住”之前的电流量。

这种奇妙的效果,其实和神经元突触有相仿之处。再加上忆阻器还具有尺寸小、操作功耗低、可大规模集成(三维集成)等优点,难怪计算机科学家们在忆阻器身上看到了存算一体、低能耗类脑计算的前景。

人工神经网络近年来大放异彩,如果用忆阻器连接成阵列,作为人工神经网络的硬件,会有什么效果?

忆阻器阵列

尽管国内外许多企业、研究机构给予关注,但据清华大学新闻页面报道,当前国际上的忆阻器研究还停留在简单网络结构的验证,或者基于少量器件数据进行的仿真。基于忆阻器阵列的完整硬件实现仍然有很多挑战。

比如,器件方面,需要制备高一致、可靠的阵列;系统方面,忆阻器因工作原理而存在固有缺陷(如器件间波动,器件电导卡滞,电导状态漂移等),会导致计算准确率降低;架构方面,忆阻器阵列实现卷积功能需要以串行滑动的方式连续采样、计算多个输入块,无法匹配全连接结构的计算效率。

通过近年来积累的一些成果,钱鹤、吴华强团队逐渐优化材料和器件结构,制备出了高性能的忆阻器阵列。

2017年5月,该课题组就曾在《自然通讯》报告称,首次实现了基于1024个氧化物忆阻器阵列的类脑计算,将氧化物忆阻器的集成规模提高了一个数量级。这使芯片更加高效地完成人脸识别计算任务,将能耗降低到原来的千分之一以下。

忆阻器神经网络

这次,钱、吴团队集成了8个包括2048个忆阻器的阵列,以提高并行计算的效率。

在此基础上,他们构建了一个五层的卷积神经网络进行图像识别,获得了96%以上的高精度,结果显示,基于忆阻器的卷积神经网络比目前最先进的GPU的能效要高出两个数量级。

这样的提升是如何实现的?原来,为解决器件固有缺陷造成的系统识别准确率下降问题,他们提出了一种新型的混合训练算法,仅需用较少的图像样本训练神经网络,并微调了最后一层网络的部分权重。

与此同时,他们提出了空间并行的机制,将相同卷积核编程到多组忆阻器阵列中,各组忆阻器阵列可并行处理不同的卷积输入块,提高并行度来加速卷积计算。

多个忆阻器阵列并行处理

随着摩尔定律放缓,计算界翘首以待新的架构突破冯诺依曼瓶颈,适应越来越复杂的AI问题。基于忆阻器的存算一体系统在这场角逐中稳步前进。

相关文章

人工智能技术

更多>>

人工智能公司

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>
关于我们|联系我们|免责声明|会展频道

冀ICP备2022007386号-1 冀公网安备 13108202000871号

爱云资讯 Copyright©2018-2024