循环神经网络门结构模型研究

来源 :浙江大学 | 被引量 : 0次 | 上传用户:DragonJiang2
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着科学技术的发展,许多的数据需要通过神经网络进行分析和处理。这其中大部分数据都具有时序或上下文前后的相关性,例如语音、文本、图片、视频等,而循环神经网络能够利用自身特点很好的处理这些具有序列依赖的数据。传统循环神经网络作为深度学习领域的一部分,在处理越来越复杂的问题的时候仍然存在许多不足,例如如何在深层网络训练中仍能保持良好的学习效果,又或是如何进一步提高循环神经网络的训练速度和准确性等。针对上述两方面问题,本文结合基于门结构的长短期记忆(LSTM)和门结构循环单元(GRU)等模型,提出了门结构循环神经网络的改进模型:(1)针对深层神经网络中收敛较慢和训练效果较差的问题,本文结合Highway网络等用于解决深层神经网络学习效率的模型,提出了一种将层间信息进行跨层连接的门结构单元(Cross-layer Gated Unit,CGU),使得不同层之间的数据在反向梯度下降的过程中也能像LSTM和GRU那样对层间数据进行选择和遗忘,从而提高深层网络下的模型学习效果。(2)针对浅层神经网络如何进一步提高模型的训练速度和准确性的问题,本文结合了 GRU和最小门结构单元(Minimal Gated Unit,MGU),提出了两种简化的门结构单元(Simplified Gated Unit,SGU),从结构上分为 SGU-u 和 SGU-m。SGU 通过减少门结构数量,改变门结构连接,尝试减少门结构学习过程中的参数训练量,在保持剩余门结构有效工作的同时,提高模型的训练速度。针对上述改进的门结构,本文选取了 MNIST图像识别、PTB语言文字和Quick Draw手绘图像数据集,对改进模型和传统RNN、LSTM、GRU以及相关文献中的模型等进行了对比测试。实验结果表明,基于CGU扩展的门结构能够很好的应用在深层神经网络,基于SGU-u简化的门结构的训练速度优于MGU和GRU,而SGU-m模型表现欠佳,表明了不同的门结构在训练过程中具有不同功能和重要性。
其他文献
<正>从全球范围看,2017年是国际政治经济急剧变化的历史转折期,世界各国间史无前例地相互依存却又相互威胁和竞争,公众对国际事务的舆论开始出现从支持自由主义的国际秩序向
<正>据《卫报》近日报道,美国中央情报局前雇员爱德华·斯诺登最新披露的资料显示,美英两国的情报机构曾经入侵世界最大的手机SIM卡制造商金雅拓公司,窃取了用于保护全球手机
文章基于CFPS数据,将居民家庭资产区分为流动性较高的资产和流动性较低的资产两种类型,把不同类型资产的变现成本引入到家庭消费决策的分析中,构建了一个双资产消费决策模型,
<正>蒙古人忽必烈一生最大的悲喜剧,在于他自己梦想并宣称自己是世界帝国的众汗之汗。实际上,他却只是一个被后人称为"元世祖"的中国式皇帝。身份认同这种事情往往由不得当事