首页> 外文会议>International Conference on Computational Linguistics >Augmenting NLP models using Latent Feature Interpolations
【24h】

Augmenting NLP models using Latent Feature Interpolations

机译:使用潜在特征插值增强NLP模型

获取原文

摘要

Models with a large number of parameters are prone to over-fitting and often fail to capture the underlying input distribution. We introduce Emix, a data augmentation method that uses interpolations of word embeddings and hidden layer representations to construct virtual examples. We show that Emix shows significant improvements over previously used interpolation based regular-izers and data augmentation techniques. We also demonstrate how our proposed method is more robust to sparsification. We highlight the merits of our proposed methodology by performing thorough quantitative and qualitative assessments.
机译:具有大量参数的模型容易过度拟合,并且通常无法捕获底层输入分布。 我们介绍了一个数据增强方法,它使用Word Embeddings的插值和隐藏的层表示来构建虚拟示例。 我们表明EMIX显示出对以前使用的基于插值的常规IZER和数据增强技术的显着改进。 我们还展示了我们所提出的方法如何更加强大地稀疏。 我们通过进行全面的定量和定性评估来突出我们提出的方法的优点。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号