...
首页> 外文期刊>Computational linguistics >A General Technique to Train Language Models on Language Models
【24h】

A General Technique to Train Language Models on Language Models

机译:在语言模型上训练语言模型的通用技术

获取原文
获取原文并翻译 | 示例
           

摘要

We show that under certain conditions, a language model can be trained on the basis of a second language model. The main instance of the technique trains a finite automaton on the basis of a probabilistic context-free grammar, such that the Kullback-Leibler distance between grammar and trained automaton is provably minimal. This is a substantial generalization of an existing algorithm to train an n-gram model on the basis of a probabilistic context-free grammar.
机译:我们表明,在某些条件下,可以在第二种语言模型的基础上训练一种语言模型。该技术的主要实例是在概率无关上下文的语法基础上训练有限自动机,从而证明语法和经过训练的自动机之间的Kullback-Leibler距离可证明是最小的。这是基于概率上下文无关文法训练n元语法模型的现有算法的实质概括。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号