【24h】

Sequence Effects in Crowdsourced Annotations

机译:众包注释中的序列效应

获取原文

摘要

Manual data annotation is a vital component of NLP research. When designing annotation tasks, properties of the annotation interface can lead to unintentional artefacts in the resulting dataset, biasing the evaluation. In this paper, we explore sequence effects where annotations of an item are affected by the preceding items. Having assigned one label to an instance, the annotator may be less (or more) likely to assign the same label to the next. During rating tasks, seeing a low quality item may affect the score given to the next item either positively or negatively. We see clear evidence of both types of effects using auto-correlation studies over three different crowdsourced datasets We then recommend a simple way to minimise sequence effects.
机译:手动数据注释是NLP研究的重要组成部分。在设计批注任务时,批注界面的属性可能会导致结果数据集中出现意外伪像,从而使评估产生偏差。在本文中,我们探讨了序列影响,其中项目的注释会受到先前项目的影响。将一个标签分配给一个实例后,注释者可能更少(或更多)将相同标签分配给下一个标签。在对任务进行评分时,看到低质量的项目可能会正面或负面地影响给予下一项的得分。通过对三个不同的众包数据集进行自相关研究,我们可以清楚地看到两种类型的效应的证据。然后,我们推荐了一种最小化序列效应的简单方法。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号