检 索
学术期刊
切换导航
首页
文章
期刊
投稿
首发
学术会议
图书中心
新闻
新闻动态
科学前沿
合作
我们
一封信
按学科分类
Journals by Subject
按期刊分类
Journals by Title
医药卫生
Medicine & Health
工程技术
Engineering & Technology
数学与物理
Math & Physics
经济与管理
Economics & Management
人文社科
Humanities & Social Sciences
化学与材料
Chemistry & Materials
信息通讯
Information & Communication
地球与环境
Earth & Environment
生命科学
Life Sciences
我要投稿
查看投稿进度
学术期刊
按学科分类
Journals by Subject
按期刊分类
Journals by Title
医药卫生
Medicine & Health
工程技术
Engineering & Technology
数学与物理
Math & Physics
经济与管理
Economics & Management
人文社科
Humanities & Social Sciences
化学与材料
Chemistry & Materials
信息通讯
Information & Communication
地球与环境
Earth & Environment
生命科学
Life Sciences
在线客服
客服电话:
400-188-5008
客服邮箱:
service@ccnpub.com
投诉举报:
feedback@ccnpub.com
人工客服
工作时间(9:00-18:00)
官方公众号
科技成果·全球共享
请选择
目标期刊
首页
期刊
文章
训练语料的不同利用方式对神经机器翻译模型的影响
下载:
74
浏览:
339
邝少辉
熊德意
《中文研究》
2018年3期
摘要:
神经机器翻译(NMT)是近两年刚出现的一种新型机器翻译方法,是一种端到端的翻译模型。目前,影响NMT模型效果的因素有很多,其一,当训练语料规模较大时,梯度下降更新方法会对机器的内存要求很高,因此大多研究工作中采用随机梯度下降(SGD)的方法来更新模型的训练参数,即每输入一定数量(批:batch)的训练样例,就利用局部的训练样例更新一次模型参数;其二,参数dropout可以防止系统训练时出现过拟合,提高系统泛化能力;其三,数据打乱(shuffle)也对翻译结果有着重要影响。因此,该文的研究内容主要是探索批、dropout和打乱这三个因素在训练神经机器翻译模型中对模型翻译质量的影响,并得出以下三条结论:一是批的大小将影响神经机器翻译(NMT)模型的收敛速度,二是dropout可以提升神经机器翻译模型的性能,三是数据打乱可以在一定程度上提升神经机器翻译(NMT)系统的翻译质量。
[1/1]
|<
<
1
>
>|
在线客服::
点击联系客服
联系电话::
400-188-5008
客服邮箱::
service@ccnpub.com
投诉举报::
feedback@ccnpub.com
人工客服
工作时间(9:00-18:00)
官方公众号
科技成果·全球共享