首页> 外文会议>Annual meeting of the Association for Computational Linguistics >Sparse and Constrained Attention for Neural Machine Translation
【24h】

Sparse and Constrained Attention for Neural Machine Translation

机译:神经机翻译的稀疏和受限的注意力

获取原文

摘要

In NMT, words are sometimes dropped from the source or generated repeatedly in the translation. We explore novel strategies to address the coverage problem that change only the attention transformation. Our approach allocates fertilities to source words, used to bound the attention each word can receive. We experiment with various sparse and constrained attention transformations and propose a new one, constrained sparsemax, shown to be differ-entiable and sparse. Empirical evaluation is provided in three languages pairs.
机译:在NMT中,单词有时从源丢弃或在翻译中重复生成。我们探索解决仅改变注意转型的覆盖问题的新战略。我们的方法为源单词分配了潜力,用于绑定每个单词都能接收的注意力。我们尝试各种稀疏和受限的注意力转换,并提出一个新的一个受约束的斯特马克斯,显示出不同且稀疏。实证评估以三种语言对提供。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号