谷歌人工智能技术 可将语音识别错误率降低29%
2019-02-26 14:49:59爱云资讯1351
近期,语音识别技术发展迅猛,像EdgeSpeechNet等最先进的模型能够达到97%的准确率,但即使是最好的系统偶尔也会被生僻字难倒。
为了解决这个问题,谷歌和加利福尼亚大学的科学家提出了一种方法,可以利用纯文本数据训练拼写校正模型。在预印本服务器Arxiv.org上发表的一篇论文《用于端到端语音识别的拼写校正模型》中,他们表示,在使用800字、960小时语言建模LibriSpeech数据集的实验中,他们的技术显示,相对于基准,单词错误率(WER)改善了18.6%。在某些情况下,它甚至可以减少29%的错误。
语音识别
他们写道:“目标是将一个接受了文本数据培训的模块纳入端到端框架,纠正系统所犯的错误,具体来说,我们的调查使用了不成对的数据,利用文本到语音(TTS)系统生成音频信号,这个过程类似于机器翻译中的反向翻译。”
正如论文作者所解释的那样,大多数自动语音识别(ASR)系统要训练三个组成部分:一个学习音频信号与构成语音的语言单位之间关系的声学模型,一个为单词序列分配概率的语言模型,以及一种用于对声学帧和识别的符号进行匹配的机制。所有这三者都使用一个神经网络和转录的音频-文本对,因此,当语言模型遇到语料库中不经常出现的单词时,通常会出现性能下降。
然后,研究人员开始将上述拼写校正模型纳入ASR框架,一种将输入和输出句子解码为“词组”的子词单元的模型,他们使用纯文本数据,并利用文本到语音(TTS)系统生成的音频信号来训练LAS语音识别器,这是2017年Google Brain研究人员首次描述的端到端模型,然后创建一组TTS对,最后,由他们来“教导”拼写纠正器纠正识别器的错误。
为了验证这个模型,研究人员训练了一个语言模型,生成一个TTS数据集来训练LAS模型,并产生了错误假设以训练拼写校正模型,其中包含了来自LibriSpeech数据集的4000万个文本序列。他们发现,通过纠正来自LAS的条目,语音校正模型生成的扩展输出的错误率“显著”降低了。相关文章
- 三星与谷歌联手开发AR眼镜,Meta/微美全息硬件先行共绘XR未来蓝图
- 谷歌量子芯片重磅登场掀热潮,微美全息持续打造量子“芯”质生产力
- Meta携手卡梅隆共铸3D沉浸世界,谷歌/微美全息创新引领全息虚拟新纪元
- 抢先OpenAI Sora谷歌新推Veo模型,亚马逊/微美全息加入AI视频生成竞赛引关注
- 谷歌DeepMind发布Gemini 2.0人工智能模型
- 2025年AI Agent商用蓄势待发,微软/谷歌/微美全息纷纷入局重塑AI全产业链
- 谷歌发布突破性量子计算芯片Willow:五分钟完成超算10的25次方年的计算
- 预报天气更快、更准确!谷歌发布AI天气预测模型GenCast
- 谷歌文生视频模型Veo私人预览版在Vertex AI平台上线
- 谷歌Gemini作为原生应用登陆iPhone
- 谷歌推出Learn About实验性新AI工具,重塑学习新方式
- ChaGPT网页搜索引擎上线 OpenAI挑战谷歌
- 谷歌超过四分之一的新代码是由人工智能生成
- Meta在开发自己的人工智能搜索引擎,减少对谷歌和微软的依赖
- 谷歌宣布开源水印识别工具SynthID,可供开发人员和企业免费使用
- 谷歌将于11月21日起从搜索结果中移除站点链接搜索框