首页> 外文会议> >Probabilistic Models for Learning a Semantic Parser Lexicon
【24h】

Probabilistic Models for Learning a Semantic Parser Lexicon

机译:学习语义解析器词典的概率模型

获取原文

摘要

We introduce several probabilistic models for learning the lexicon of a semantic parser. Lexicon learning is the first step of training a semantic parser for a new application domain and the quality of the learned lexicon significantly affects both the accuracy and efficiency of the final semantic parser. Existing work on lexicon learning has focused on heuristic methods that lack convergence guarantees and require significant human input in the form of lexicon templates or annotated logical forms. In contrast, our probabilistic models are trained directly from question/answer pairs using EM and our simplest model has a concave objective that guarantees convergence to a global optimum. An experimental evaluation on a set of 4th grade science questions demonstrates that our models improve semantic parser accuracy (35-70% error reduction) and efficiency (4-25x more sentences per second) relative to prior work despite using less human input. Our models also obtain competitive results on GEO880 without any dataset-specific engineering.
机译:我们介绍了几种概率模型,用于学习语义解析器的词典。词汇学习是为新的应用程序领域训练语义解析器的第一步,学习的词汇的质量会显着影响最终语义解析器的准确性和效率。现有的词典学习工作已集中在缺乏收敛保证的启发式方法上,并且需要以词典模板或带注释的逻辑形式的大量人工输入。相比之下,我们的概率模型是使用EM直接从问题/答案对中训练的,而我们最简单的模型具有隐性目标,可确保收敛到全局最优值。对一组四年级科学问题的实验评估表明,尽管使用了较少的人工输入,但相对于以前的工作,我们的模型提高了语义解析器的准确性(减少了35-70%的错误)和效率(每秒增加了4-25倍的句子)。我们的模型还可以在GEO880上获得竞争性结果,而无需任何特定于数据集的工程。

著录项

  • 来源
    《》|2016年|606-616|共11页
  • 会议地点
  • 作者

    Jayant Krishnamurthy;

  • 作者单位
  • 会议组织
  • 原文格式 PDF
  • 正文语种
  • 中图分类
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号