宝德昇腾AI服务器PR420KI G2创新大模型算力底座
2023-07-27 15:32:45爱云资讯阅读量:1,238
随着ChatGPT的出圈爆火,AIGC技术已开启了快速发展模式,不少企业纷纷发力布局AI大模型领域,多个AI大模型如雨后春笋般涌现,呈现“百模齐放”之势。而AI大模型千千万,但是能走进千家万户、赋能千行百业才是硬道理。
算力作为人工智能发展的引擎,更是AI大模型的重要驱动力。AI大模型的参数量和计算量庞大,要训练出优秀的AI模型并真正应用于各行各业,需要巨大的算力支持。因此,百模齐发之时,能为大模型训练提供强劲运算能力和高效安全的底座的AI算力成为各路必争的利器。
作为中国AI服务器TOP3企业,宝德创新升级,重磅推出了自强®系列昇腾AI训练服务器PR420KI G2,助力大模型赋能千行百业。该服务器面向深度学习模型开发和AI训练服务场景,专为大模型训练而生,具有更高算力密度、超高能效与高速网络带宽等优势,提供丰富的算力资源,能加速处理运算,满足大模型训练的海量算力需求。
更高算力密度,高效加速AI应用
宝德自强®训练服务器PR420KI G2基于鲲鹏+昇腾处理器打造,在4U空间内提供2.5PFLOPS FP16超强算力,最高提供0.65PFLOPS FP32业界领先算力,具有海量数据并行计算能力,可轻松应对大模型沉重的计算压力。同时搭载8颗超强算力的昇腾处理器,其内部集成了图像&视频预处理器,外部通信模块、硬件加速器、芯片管理核等模块,提供完整的SOC功能,能高效加速AI应用。
高速网络带宽,加速大模型技术升级落地
AI大模型一方面需要强大的计算能力,另一方面也需要高速可靠的网络让数据及时流动。而模型参数量越大,对带宽的需求就越高。PR420KI G2提供高速网络带宽,延时低,可有效减少大模型训练的时间成本。它具有8*200G RoCE v2高速接口,8路NPU通过HCCS Full mesh互联模式,双向互联带宽可达392GB/s,全面提升大模型的训练效率。同时整机HBM缓存512G,带宽达1600GB/s,进一步释放 AI 潜能,助力大模型算力瓶颈突破,加速大模型技术的迭代升级和落地应用。
极致能效比,兼顾高算力低能耗
碳中和背景下,大模型追求高算力的同时也要兼顾节能减排。PR420KI G2配置高效节能电源、动态冷却机制,提供2.5PFLOPS/5.2kW超高能效比,在保持其性能的同时,大大节省运营费用,降低训练成本;同时,还采用智能散热系统,根据热关键器件温度综合调节风扇转速,节能的同时降低了噪音并提高风扇的可靠性。
此外,PR420KI G2还采用2+2 冗余电源设计,提供多种 RAID 保护级别,具备数据处理性能和保护数据功能,为服务器的运行安全提供更高的安全保障。它可广泛适用于大模型训练、智慧城市、智慧医疗、天文探索、石油勘探、高性能计算(HPC)等需要大算力的应用场景,为加速更多AI落地和应用提供澎湃动力。
当前AI大模型正不断向纵深发展,在国家政策的影响下,高算力、高带宽、低能耗的AI算力基础设施将更受青睐。未来,宝德将继续充分发挥自身AI服务器领域的技术优势和市场经验,加速大模型与实体产业的深度融合,助推更多大模型场景落地和应用,促进千行百业数字变革,为我国人工智能产业的发展注入强劲的动力。
相关文章
- 东南大学鲲鹏昇腾科教创新孵化中心正式成立 助力科研创新与人才培养
- 南京大学鲲鹏昇腾科教创新孵化中心揭牌,引领高校科研生态新模式
- 山东省昇腾人工智能产业峰会成功举办
- 出门问问大模型通过华为昇腾两大认证,AI生态布局版图再次扩大
- 赛意信息获华为昇腾技术认证,为数字化转型2.0注入新活力
- 赛意信息PCB行业大模型获华为昇腾技术认证,共筑国产化AI新生态
- 浙江鲲鹏昇腾产业与人才创新论坛成功举办!
- 商汤大装置昇腾原生开发实践:集群规模扩展至3倍,线性加速比超97%
- 加速鲲鹏昇腾原生创新,助力千行万业共赢数智美好未来
- 华为与科大讯飞进一步深化合作,“昇腾”+“星火”加速大模型应用落地
- 华为全联接大会2024“激发原生创新,拥抱数智世界”昇腾产业峰会成功举办
- 神州鲲泰打造昇腾能力中心,携手伙伴共赢AI推理新机遇
- 途普科技核心产品TopGraph通过华为昇腾技术认证
- 加速原生创新,智谱携手昇腾、昇思打造自主创新原生模型
- 昇腾与昇思原生,助力智谱打造自主创新大模型体系!
- 华为联合WPS AI,见证昇腾大模型推理应用启航