【24h】

N-gram Distribution Based Language Model Adaptation

机译:基于N元语法分布的语言模型适应

获取原文

摘要

This paper presents two techiques for language model (LM) adaptation. The first aims to build a more general LM. We propose a distribution-based pruning of n-gram LMs, where we prune n-grams that are likely to be infrequent in a new document. Experimental results show that the distribution-based pruning mehtod performed up to 9
机译:本文介绍了两种语言模型(LM)自适应技术。第一个目标是建立一个更通用的LM。我们建议对n-gram LM进行基于分布的修剪,在其中修剪新文档中可能很少出现的n-gram。实验结果表明,基于分布的修剪方法最多可以执行9次

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号