首页> 中国专利> 一种基于视觉显著性的多视角图像目标检测方法

一种基于视觉显著性的多视角图像目标检测方法

摘要

本发明公开了一种基于视觉显著性的多视角图像目标检测方法,包括:针对前景目标未被遮挡的场景,计算多个视角图像的显著性图,利用视角之间的空间关系,将两侧视角的显著性图投影到中间目标视角,并将投影显著性图和中间视角的显著性图相融合得到融合显著性图。被前景物体遮挡的区域在投影时不能真实映射到目标视角,投影显著性图中前景目标周围会产生投影空洞,在融合显著性图中将该投影空洞区域视为背景区域。利用多视角投影空洞划分图像区域,投影空洞和图像边缘之间的区域以及不同前景物体的投影空洞之间的区域均视为背景区域。在融合显著性图中,将以上得到的背景区域的显著性值置为零,并二值化后便可得到边缘清晰、无背景干扰的目标物体。

著录项

  • 公开/公告号CN106327493A

    专利类型发明专利

  • 公开/公告日2017-01-11

    原文格式PDF

  • 申请/专利权人 电子科技大学;

    申请/专利号CN201610712411.2

  • 申请日2016-08-23

  • 分类号G06T7/00;

  • 代理机构电子科技大学专利中心;

  • 代理人周刘英

  • 地址 611731 四川省成都市高新区(西区)西源大道2006号

  • 入库时间 2023-06-19 01:20:05

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-07-29

    未缴年费专利权终止 IPC(主分类):G06T 7/00 专利号:ZL2016107124112 申请日:20160823 授权公告日:20181218

    专利权的终止

  • 2018-12-18

    授权

    授权

  • 2017-02-08

    实质审查的生效 IPC(主分类):G06T7/00 申请日:20160823

    实质审查的生效

  • 2017-01-11

    公开

    公开

说明书

技术领域

本发明-属于图像目标检测的技术领域,尤其涉及对多视角图像的目标检测方法。

背景技术

视觉显著性是指人们观察外界事物时,视觉系统能够自主探测、感知场景中各个位置的敏感性信息。该原理来源于人类视觉系统的仿生研究成果,它依据生物神经原理建立计算模型,构建类似于神经系统捕捉、处理外界信息的过程,实现场景中显著性目标的感知。

经过对现有技术总结发现,对于简单场景图像,基于视觉显著性的目标检测容易取得好的效果,对于复杂场景图像,基于单幅图像显著性信息的目标检测方法往往不能进行准确的目标区域检测与判断。利用更多的图像能够补充目标信息,提高检测准确度。现有的多幅图像的显著性计算主要集中于多幅相似图像的联合显著性检测,其主要问题在于相似图像的来源受限,不适合实际应用。随着3D技术的发展,多视角图像提供了另外一种基于多幅图像的显著性目标检测途径,多视角显著性可以融合更多信息,抑制复杂背景,突出显著目标,得到背景干扰小、边缘清晰的显著目标。

发明内容

本发明的发明目的在于:针对前景目标未被遮挡的场景,提供一种多视角图像中目标检测方法,以实现对无遮挡目标在复杂背景场景下的目标检测与提取。

本发明针对前景目标未被遮挡的场景,计算多个视角图像的显著性图,将两侧视角的显著性图投影到中间目标视角,消除投影图中由于像素离散映射产生的不闭合细纹,得到两侧视角的影显著性图;并将两侧视角的投影显著性图与中间视角的显著性图融合,得到融合显著性图;将投影产生的空洞区域视为背景区域,在融合显著性图中消除;利用投影空洞划分对融合显著性图进行图像划分,将投影空洞和边缘之间的区域以及不同物体的投影空洞之间的区域视为背景,在融合显著性图中消除;对融合显著性图二值化,得到目标检测结果。

本发明的一种基于视觉显著性的多视角图像目标检测方法,包括下列步骤:

步骤1:输入前景目标未被遮挡的同一场景的左、中、右视角图像,并计算各视角图像的显著性图,得到左、中、右显著性图;

步骤2:分别将左、右显著性图依像素投影到中视角图像,得到左、右投影图,同时记录投影时的投影空洞区域;分别消除左、右投影图中的不闭合细纹得到左、右投影显著性图;

步骤3:将左、右投影显著性图和中显著性图进行图像融合,得到融合显著性图,并在融合显著性图中将记录的投影空洞区域的显著性消除;

步骤4:基于记录的投影空洞区域对融合显著性图进行图像划分,将投影空洞和边缘之间的区域、以及不同图像物体的投影空洞之间的区域作为背景区域,并在融合显著性图中消除所述背景区域的显著性;

步骤5:步骤4处理后的融合显著性图进行二值化处理,输出目标检测结果。

与现有技术相比,本方法针对前景不被遮挡的场景,能够更好的抑制背景,得到背景干扰小、边缘清晰的显著目标。

附图说明

图1本发明具体实施方式的流程图。

图2左右视角到中视角的投影示意图。

图3细纹修复示意图。

图4多视角融合显著性图。

图5消除目标周围背景示意图。

图6利用投影空洞划分图像示意图。

图7多视角目标检测结果示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。

参见图1,本发明的一种基于视角显著性的多视角图像目标检测方法,包括下列步骤:

步骤1:输入前景目标未被遮挡的同一场景的多视角图像(左视角、中视角(中间目标视角)、右视角,如图2所示的a、b、c)并分别计算其显著性,得到各视角的显著性图,同时完成视角投影。

比如利用背景先验方法(BP)计算左中右三个视角图像(图2的a-c)的视觉显著性图,如图2的d-f所示,即得到左显著性图(图2-d)、中显著性图(图2-e)、右显著性图(图2-f)。然后将左右视角的显著性图依像素投影到中视角图,得到左右视角的两幅投影图,如图2的g-h所示。

投影时同时记录中间目标视角中未被映射的不闭合区域,其中不闭合区域分为两种:一是由于视角映射时像素的离散性产生的不闭合细纹区域,二是由于视角遮挡产生的投影空洞区域。

步骤2:消除左右视角的投影图中的不闭合细纹,得到左、右投影显著性图。

201:提取左投影图SLp、右投影图SRp中的不闭合细纹,得到图像IL-mask、IR-mask,其中IL-mask对应SLp,IR-mask对应SRp;并初始化左、右修复图ILs=SLp、IRs=SRp

202:对图ILs、IRs进行分块离散余弦DCT变换,并将频域中的高频DCT系数(行数或列数大于二分之一变换块的行高或列宽位置的系数)置零后作DCT逆变换得到图像ILp、IRp,其中ILp对应ILs,IRp对应IRs

203:用图像ILp、IRp填充投影图SLp、SRp中的不闭合区域,得到新的左、右修复图ILs=ILs+ILp∩IL-mask、IRs=IRs+IRp∩IR-mask

204:若当前左、右修复图ILs、IRs中不存在不闭合细纹,则执行步骤202;否则将当前左、右修复图ILs、IRs作为左、右投影显著性图,如图3所示,其中图3-a对应左投影显著图,3-b对应右投影显著性图。

步骤3:多视角显著性图融合及消除目标周围空洞区域。

一般的,多视角显著性图加权相加时,设左右视角与中间视角的视角相关系数为0.5,中间视角自身的视角相关系数为1,即左投影显著性图、中显著性图、右投影显著性图的视角相关系数r1、r2、r3分别为0.5、1、0.5,则根据公式w1=r1/(r1+r2+r3)可得左投影显著性图的加权系数w1=0.25,公式w2=r2/(r1+r2+r3)可得中显著性图的加权系数w2=0.5,公式w3=r3/(r1+r2+r3)可得左投影显著性图的加权系数w3=0.25,基于加权系数,对左投影显著性图、中显著性图、右投影显著性图进行加权求和可得到融合显著性图,如图4所示。

在融合显著性图中,将由于视角遮挡产生的投影空洞区域的显著性值置零,消除投影空洞区域后的显著性图参见图5。

步骤4:利用投影空洞划分图像,消除背景。

基于步骤1中记录的投影空洞区域,对融合显著性图进行图像划分。

参见图6-a,其中①区为图像物体,②区为投影产生的投影空洞区域,③区为投影空洞外侧背景的区域,而④区为不处理区域(因不能判断是否为投影空洞外侧)。

根据以上区域划分,将从左往右的每对空洞的中间视为一个目标物体,将投影空洞做形态学处理,细化为线条,即空洞线条。

然后将位于图像左侧第一个目标物体的左侧空洞线条与图像的左侧边缘角连接形成封闭区域,将位于图像右侧第一个目标物体的右侧空洞线条与图像的右侧边缘角连接形成封闭区域,对相邻的两个目标物体,左侧目标物体的右侧空洞线条与右侧目标物体的左侧空洞线条的两端连接形成封闭区域,并将以上三种封闭区域合并得到背景区域,参见图6-b所示的3个闭合区域。

最后,在融合显著图中将背景区域的显著性值置零,如图7-a所示。

步骤5:对消除背景干扰后的融合显著性图作二值化,阈值th为图像平均灰度的一半,即th=1/MN*(∑∑S(x,y))/2,其中M、N分别为图像的宽度和高度,S(x,y)表示灰度,令融合显著性图中,显著性值大于或等于th的像素值为1,显著性值小于th的像素值为0,得到最终的目标检测结果,如图7-b所示。

以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号