阿里云机器学习平台PAI与华东师范大学论文入选SIGIR 2022
2022-07-12 10:33:41爱云资讯阅读量:919
近日,阿里云机器学习平台PAI与华东师范大学高明教授团队合作的论文《结构感知的稀疏注意力Transformer模型SASA》被顶会 SIGIR 2022录取。论文主导通过引入稀疏自注意力的方式来提高Transformer模型处理长序列的效率和性能,并提出了结合代码语言和结构特性的面向长代码序列的Transformer模型性能优化方法。
SIGIR是人工智能领域智能信息检索方向顶级国际会议,涉及搜索引擎、推荐系统等多个方向,该会议曾推动了面向搜索的排序模型、基于深度学习的推荐算法等人工智能领域的核心创新,在学术和工业界都有巨大的影响力。此次入选意味着阿里云机器学习平台PAI自研的稀疏注意力Transformer模型达到了业界先进水平,获得了国际学者的认可,展现了中国机器学习系统技术创新在国际上的竞争力。
那么SASA主要解决了什么问题?基于Transformer的模型在self-attention模块的复杂度随序列长度呈次方增长,多数编程预训练语言模型(Programming-based Pretrained Language Models, PPLM)采用序列截断的方式处理代码序列,从而导致上下文信息缺失。
针对以上问题,SASA设计了四种稀疏注意力模式,包括:sliding window attention,global attention,Top-k attention,AST-aware attention,在一定程度上将计算复杂度与序列长度解耦。其中sliding window和Top-k模式基于局部上下文和重要的attention交互学习表示,抽象语法树(AST)模式引入代码的结构特性,与序列上下文信息相互补足,global attention通过与序列中所有token进行交互来获取全局信息。对比CodeBERT,GraphCodeBERT等方法,SASA在多个长代码任务上取得最佳效果,同时也降低了内存和计算复杂度。
SASA技术将在开源框架EasyNLP中集成,给PAI的NLP开发者提供基于稀疏注意力机制的长序列自然语言处理能力。机器学习平台PAI面向企业客户级开发者,提供轻量化、高性价比的云原生机器学习,涵盖PAI-DSW交互式建模、PAI-Designer可视化建模、PAI-DLC分布式训练到PAI-EAS模型在线部署的全流程。
论文信息
EasyNLP开源地址:https://github.com/alibaba/EasyNLP
论文链接:https://arxiv.org/abs/2205.13730论文名字Understanding Long Programming Languages with Structure-Aware Sparse Attention. SIGIR 2022论文作者刘婷婷,汪诚愚,陈岑,高明,周傲英
相关文章
- 阿里云通义智能语音技术助力听力熊打造领先的AI智能终端——用大模型陪伴青少年学习成长|看见新力量NO.139
- 再登榜首!阿里云蝉联中国公有云网络安全即服务市场份额第一
- 阿里云助力童语故事跑出增长“加速度”——加速开拓C端与B端场景
- 阿里云磐久AI Infra 2.0在OCP峰会上展现AI互连技术新突破
- 阿里云×端木软件携无影云电脑精彩亮相天津市“一起益企”中小企业服务大会
- AI安全新突破!阿里云实现Confidential AI全栈覆盖
- Elastic亮相云栖大会,在阿里云上隆重发布企业版
- 阿里云旗舰级合作伙伴端木软件亮相2024云栖大会
- 2024云栖大会:阿里云通信发布大模型语音机器人,响应时间仅500毫秒
- 奇墨ITQM亮相2024云栖大会,荣获阿里云产品生态伙伴成长进步奖
- 共创云上数字基建,智加科技与阿里云开启全面合作
- 阿里云服务器操作系统Alibaba Cloud Linux全新升级,核心场景性能提升超20%
- “JetBrains与阿里云战略合作发布JetBrains Al Assistant”
- 强强联合!亚信科技、阿里云携联盟之力,助力行业“零门槛”玩转大模型
- IDC最新报告:阿里云连续四年领跑中国公有云大数据平台市场
- 阿里云×端木软件助力温州市企业云化转型研讨会暨温州市十朵云系列活动圆满举行