10.3969/j.issn.1000-1220.2018.11.011
学习长短时记忆网络的紧密结构
近些年来,在语音识别任务上,前馈神经网络与长短时记忆网络等模型取得了突出的性能表现.然而,这些神经网络对其所要部署设备的内存资源与计算效率有较高的要求,这极大的阻碍了神经网络在移动设备上的应用.事实上大部分的神经网络都存在一定程度上的参数冗余,并由此带来了额外的计算量,因此压缩神经网络模型具有可行性与必要性.在这篇论文中,我们提出一种在网络训练过程中利用移动门来自动学习长短时记忆网络结构的方法,可以得到更加紧密的网络结构.在Switch-board上的实验结果显示我们提出的方法可以将长短时记忆网络的参数量减少到原来的58.7%,同时没有带来性能损失.
长短时记忆网络、语音识别、模型压缩
39
TP391(计算技术、计算机技术)
国家重点研发计划项目2017YFB1002200
2018-12-20(万方平台首次上网日期,不代表论文的发表时间)
共4页
2409-2412