依靠人工智能 ASIC芯片市场涨幅显著
2019-04-11 16:59:28爱云资讯阅读量:918
目前,大多是具备AI算法又擅长芯片研发的巨头参与,如Google的TPU。ASIC在性能和功耗上都要优于GPU和FPGA,TPU1是传统GPU性能的14-16倍,NPU是GPU的118倍。寒武纪已发布对外应用指令集,预计ASIC将是未来AI芯片的核心。
人工智能下的芯片新需求
随着人工智能产业链的火速延伸,GPU并不能满足所有场景(如手机)上的深度学习计算任务, GPU并不是深度学习算力痛点的唯一解。目前以深度学习为代表的人工智能计算需求,主要采用GPU、FPGA等已有适合并行计算的通用芯片来实现加速。
在产业应用没有大规模兴起之时,使用这类已有的通用芯片可以避免专门研发定制芯片(ASIC)的高投入和高风险。但是,由于这类通用芯片设计初衷并非专门针对深度学习,因而存在性能、功耗等方面的瓶颈。随着人工智能应用规模的扩大,这类问题将日益突出。
正如CPU改变了当年庞大的计算机一样,人工智能ASIC芯片也将大幅改变如今AI硬件设备的面貌。如大名鼎鼎的AlphaGo使用了约170个图形处理器(GPU)和1200 个中央处理器(CPU),这些设备需要占用一个机房,还要配备大功率的空调,以及多名专家进行系统维护。而如果全部使用专用芯片,非常可能只需要一个盒子大小,且功耗也会大幅降低。
在芯片需求还未成规模、深度学习算法暂未稳定需要不断迭代改进的情况下,利用具备可重构特性的FPGA芯片来实现半定制的人工智能芯片是理想选择。随着人工智能算法和应用技术的日益发展,以及人工智能专用芯片ASIC产业环境的逐渐成熟,人工智能下ASIC将成为人工智能计算芯片发展的必然趋势。
ASIC芯片撬动产业的支点
人工智能硬件应用场景归纳为云端场景和终端场景两大类。云端主要指服务器端,包括各种共有云、私有云、数据中心等业务范畴;终端主要指包括安防、车载、手机、音箱、机器人等各种应用在内的移动终端。由于算法效率和底层硬件选择密切相关,“云端”(服务器端)和“终端”(产品端)场景对硬件的需求也不同。人工智能目前主流使用三种专用核心芯片,分别是GPU,FPGA,ASIC。
①GPU是普遍使用的一种,通过CUDA接口可以让原本只可以用来玩游戏的GPU进行通用计算。进入2017年之后,原本做显卡芯片的NVIDIA立马摇身一变成了人工智能行业里的泰山北斗,几乎所有做人工智能技术的公司,都会买来一大堆NVIDIA的显卡,进行深度学习运算。
②FPGA芯片,其使用门槛比GPU要高一些,但效率要高很多,赛灵思公司称其产品在特定情况下比GPU高数十倍。FPGA是一种可编程的电路,所以可以根据需求重新刷写,可以根据变成模拟成声卡、显卡或者其他不同类型的芯片,在以往主要用于芯片研发的模拟阶段。由于其“可变”的特性,FPGA也可以刷写成人工智能芯片进行深度学习的计算。不过深度学习有很多种,语音和视觉的算法都不一样,在进行不同运算时就需要重新刷一下FPGA芯片。
③ASIC是一种全定制的芯片,比特币矿机所用的就是AISC。其效率极高,而单芯片成本很低,例如2013年的时候一颗功耗只有几瓦的阿瓦隆ASIC,挖比特币的算力相当于好几块功耗上百瓦的显卡之和。
ASIC的市占率可望随着边缘运算的需求增加而明显攀升,从2018年的11%增加至2025年的52%。ASIC之所以受到青睐,原因在于新兴的深度学习处理器架构多以图形(Graph)或Tensorflow为基础架构;且上述提到AI边缘运算受限于功耗和运算效能,因此多以推论为主,而非训练。
若假设到2021年时,终端设备将导入大量AI芯片,所需要的便是能在同一个芯片上进行推理和训练,可因应分散式运算且又具低功耗的IC,因此ASIC需求将持续上扬,实现更多AI边缘应用案例。
ASIC是国内芯片的新机遇
人工智能芯片向ASIC转移将在全球开辟一块新战场,这也是中国芯片的机会。中国芯片在设计、制造、封测三大产业链环节均落后于世界先进水平,部分领域甚至跟发达国家有10年-20年的差距。这让中国的芯片领域过分依赖进口贸易。全球调研机构IC Insights在2016年公布了全球半导体20强,前20位中没有中国公司上榜。
由于专利积累、软件生态配套不足等原因,中国在已经落后的传统芯片领域想要追赶领先者颇为困难。而在没有太多历史包袱、有新技术突破的芯片领域,中国跟其他国家站在同一起跑线上,有机会占据领先位置。现阶段,中国弯道超车的希望存在于人工智能(AI)芯片领域。
谷歌和英伟达公司是人工智能处理领域的两大巨头,但英伟达主要专注于GPU。人工智能领域的ASIC专用芯片仍是一片蓝海,尚未出现足以垄断市场的巨头公司。
在AI领域专用芯片,除了谷歌,研发者大多为充满活力的新兴公司,其中活跃着不少中国公司,如寒武纪、地平线等。AI芯片上可以说是美国第一,中国第二。目前人工智能芯片正在重演矿机芯片的演化路径——从CPU/GPU/FPGA到ASIC专用芯片。而国内企业也有机会将成熟的ASIC芯片技术拓展到人工智能领域。
结尾
ASIC无论是从性能、面积、功耗等各方面都优于GPU和FPGA,长期来看无论在云端和终端,ASIC都代表AI芯片的未来,目前包括微软、谷歌、英特尔等巨头都重金投到ASIC领域,不过由于目前AI算法快速迭代,且ASIC开发周期较长、需要底层硬件编程、占据芯片成本等,因此虽然前景利好,但也需要芯片公司对其进行提前布局,抢占这未来芯片的潜在流量池。
相关文章
- 解读人工智能数据中心趋势,Aginode安捷诺“满天星”亚太巡展走进韩国首尔
- 世界互联网大会|王巍:人工智能迅猛发展是全球技术合作成果
- 安恒信息王欣入选世界互联网大会人工智能专业委员会
- 《生成式人工智能零售业全景探索白皮书》重磅发布,引领“零售+AI”新时代
- 苹果计划在2026年推出LLM Siri 增强自研人工智能
- 智能时代的少年楷模:“2024华为开发者大赛·少年开发者人工智能大赛”颁奖典礼落幕
- 人工智能全球合作联盟——首届人工智能全球合作论坛核心成果之一
- 百模论剑决赛收官日 | “人工智能+”鏖战四日,战果即将揭晓!
- 微软推出Copilot Actions,利用人工智能自动执行重复性任务
- 微软宣布举办大型线下黑客大会 为人工智能安全提供高达400万美元奖励
- 百模论剑决赛第3日 | 各地团队赴蓉参赛,“人工智能+”智慧碰撞
- 人工智能智库网络在京启动,百度、快手、华为、蚂蚁、腾讯、阿里等发起
- 百模论剑决赛第2日 | 多赛道展演答辩,“人工智能+” 活力迸发
- 百模论剑决赛第1日 | 15支队伍首发亮相,“人工智能+”表现亮眼
- 木愚科技:智驭人工智能,领航“AI+”产业实训未来
- 2025 福布斯中国人工智能科技企业 TOP 50 评选正式启动