首页> 中国专利> 一种基于深度神经网络的识别辅助的多目标跟踪方法

一种基于深度神经网络的识别辅助的多目标跟踪方法

摘要

本发明公开了一种基于深度神经网络的识别辅助的多目标跟踪方法。多目标跟踪是指在摄像机捕获的画面中对感兴趣的多个目标不断的跟踪。现有的多行人跟踪方法在当目标被完全遮挡或者从视野中消失极易导致跟踪失败。本发明方法将多目标跟踪问题转化为寻找帧间检测到的目标之间对应关系问题,在目标消失再现后,采用基于深度学习网络实现有效的轨迹恢复,改善长距离跟踪效果。本发明具有较好的鲁棒性,非常适合应用在安防监控领域,对协助公共场所的维护治安有非常大的实际价值。

著录项

  • 公开/公告号CN106097391A

    专利类型发明专利

  • 公开/公告日2016-11-09

    原文格式PDF

  • 申请/专利权人 浙江工商大学;

    申请/专利号CN201610420557.X

  • 发明设计人 王慧燕;杨宇涛;

    申请日2016-06-13

  • 分类号G06T7/20(20060101);

  • 代理机构杭州裕阳专利事务所(普通合伙);

  • 代理人应圣义

  • 地址 310018 浙江省杭州市下沙高教园区学正街18号

  • 入库时间 2023-06-19 00:50:48

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-11-16

    授权

    授权

  • 2016-12-07

    实质审查的生效 IPC(主分类):G06T7/20 申请日:20160613

    实质审查的生效

  • 2016-11-09

    公开

    公开

说明书

技术领域

本发明属于图像处理和模式识别领域,涉及一种基于深度神经网络的识别辅助的多目标跟踪方法。

背景技术

随着机器视觉理论与技术以及计算机硬件的发展,对图像内容进行识别与理解成为研究的热点,拥有广阔的应用市场。尤其在安防监控、智能交通、自动驾驶等领域,对多目标跟踪的需求日益增强。同时,多目标跟踪作为众多计算机视觉的底层技术,该技术的发展也会对计算机视觉的其他分支产生极大的影响和促进。

多目标跟踪就是在视频序列中持续不断的自动识别和定位目标,同时记录下目标的运动轨迹。多目标跟踪相对于单目标跟踪更为复杂,不仅需要处理单目标跟踪中出现的复杂的背景环境,如遮挡、光照变化、目标姿态变化等因素,还要面对目标数量动态变化以及多目标之间的相互遮挡等问题。这些难题的存在导致当前主流的多目标跟踪方法并不鲁棒。

随着近年来各个领域对多目标跟踪技术的需求日益增大,出现了很多的研究成果。自从首次将网络流的方法应用到多目标跟踪,大量的相关方法也随之出现。这类方法的基本思想是将跟踪目标看成图中的节点,构建网络流图,通过寻找最小代价流来进行跟踪。目标检测的技术日益完善后,催生了两段式的基于检测的跟踪,跟踪的方法是在检测结果之间寻找关联关系。考虑到目标运动中需要符合一系列的关联准则以及与其他运动目标的相互关系,SFM模型(social force model)被提出了,随后该模型被应用到了多目标跟踪领域。但迄今为止,并没有很好的方法能够将消失重现目标的轨迹重新恢复,而是重新将其当做新的跟踪对象,这显然不符合实际需要。

自从2012年Hinton团队将Deep Learning用于ImageNet数据集并取得了惊人的成绩后,深度学习重新得到了重视并在各个研究领域得到了广泛的应用,结合深度学习的跟踪方法也随之出现。自动编码器(Auto Encoder)全卷积网络也被用于目标跟踪,实现了端到端的目标跟踪。但一个好的CNN网络需要大量的样本学习好的特征描述,而且在现有的硬件条件下,有监督的CNN庞大的计算代价难以满足跟踪实时性的要求。

发明内容

本发明提供了一种基于深度神经网络的识别辅助的多目标跟踪方法,以解决多目标跟踪中的消失目标重现时的轨迹恢复问题,提高跟踪的准确性和鲁棒性。

为解决上述问题,本发明提供一种基于深度神经网络的识别辅助的多目标跟踪方法,包括以下步骤:

对于视频中的每一帧,检测所有存在的目标,将检测结果中的若干候选目标用集合Ct表示,将已有的若干跟踪目标用集合Os表示,对一个跟踪目标的轨迹记为Oi,下标i是唯一的跟踪标识;

将当前帧检测到的候选目标与已有的跟踪目标进行匹配,当在检测结果中距离最近且符合距离小于一个阈值时,则认定该候选目标满足强关联条件并将其加入对应跟踪目标的轨迹当中,所有跟踪目标匹配结束后,将没有匹配到任何跟踪目标的候选目标加入队列Q中,队列Q表示在匹配阶段不满足强关联条件的候选目标集合;

若队列Q为空,该帧跟踪结束,重新读取视频帧进行上述步骤;

若队列Q不为空,利用当前所有历史跟踪记录更新辅助跟踪网络,将队列Q中所有目标输入更新后的辅助跟踪网络中,得到识别结果和相应的置信度,当队列Q中识别结果的置信度高于阈值的候选目标依据其识别结果进行跟踪。

作为一种实施方式,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配步骤中,包括以下步骤:

根据空间局部性原理缩小匹配范围,筛选出符合距离要求的候选目标作为相似目标。

作为一种实施方式,所述根据空间局部性原理缩小匹配范围,具体包括以下步骤:

根据如下公式进行筛选:

Ut={cjt|Euclidean(oit-1,cjt)<v}

其中Ut表示符合要求的候选目标的集合,表示第t帧中检测到的第j个候选目标,j∈[1,n],表示第t-1帧中目标i,其中i∈[1,z],t∈[1,m]。

作为一种实施方式,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配,具体包括以下步骤:

在当前帧检测结果中寻找跟踪目标相似度高的候选目标;

通过如下公式寻找最相似候选目标;

argminjdist(f(oit-1),f(cjt)),cjtCt

其中f(.)表示对目标提取特征,dist(.)表示距离度量函数。

作为一种实施方式,若目标提取特征为颜色直方图特征时,具体包括以下步骤:

根据空间局部性原理筛选符合距离要求的候选目标;

提取目标t‐1帧中已有跟踪目标和t帧中检测到的候选目标的RGB颜色直方图特征;

根据巴氏距离度量函数计算两个直方图分布特征的距离,计算公式如下:

argminjDB(hist(oit-1),hist(ujt)),ujtUt,

其中hist(.)表示颜色直方图特征,DB表示目标提取特征为颜色直方图特征时的巴氏距离度量函数;

若巴氏距离最近且小于一个阈值,则认定该候选目标为满足强关联条件,为最相似候选目标。

作为一种实施方式,所述利用当前所有历史跟踪记录更新辅助跟踪网络,具体包括以下步骤:

将当前所有跟踪目标的历史跟踪结果作为网络的训练数据,将网络输出的特征和跟踪标识组成训练样本去训练SVM分类器,完成辅助跟踪网络的更新。

作为一种实施方式,所述将队列Q中所有目标输入网络中,得到识别结果和相应的置信度,具体包括以下步骤:

将队列Q中每一个目标输入更新后的辅助跟踪网络中,通过前馈运算结果获得目标的深度特征,再将深度特征输入线性SVM分类器得到识别标识和相应的置信度。

作为一种实施方式,所述深度特征包括网络输出特征,通过前馈运算结果获得目标的网络输出特征,具体包括以下步骤:

将一个样本经过两层卷积,得到若干个特征图;

每个样本卷积后加入最大值池化的运算,将特征图变小;

当获取所有卷积的特征图,对卷积结果进行二值化操作;

以每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。

作为一种实施方式,还包括将队列Q中识别结果的置信度低于阈值要求的候选目标当做新出现的目标,将新出现的目标建立跟踪目标并加入到跟踪目标Os中。

作为一种实施方式,将队列Q中所有目标输入更新后的辅助跟踪网络中,所述网络为深度神经网络结构,包括两个卷积层、两个最大值池化层和二值量化层。两个所述卷积层包括第一卷积层和第二卷积层,所述第一卷积层滤波器个数为8个,第二卷积层滤波器个数为64个。

本发明提供的技术方案的有益效果是:本发明主要针对当目标存在严重遮挡以及目标从摄像机视野中短暂消失的情况进行研究,提出了一种基于深度神经网络的识别辅助的多目标跟踪方法,将多目标的跟踪问题转化为寻找帧间检测到的目标之间寻找对应关系的过程,采用了基于深度神经网络的目标识别方法来进行辅助跟踪,可以很好地解决目标消失再现和存在严重遮挡时造成的目标丢失的问题,当目标再次出现时可以通过识别辅助跟踪的方法恢复消失重现目标的跟踪轨迹。

附图说明

图1为本发明基于深度神经网络的识别辅助的多目标跟踪方法的流程图;

图2为本发明使用的辅助跟踪网络的结构图。

具体实施方式

为了进一步详细描述本发明的过程,结合附图对本发明进行更加具体的阐述。

本发明提供一种基于深度神经网络的识别辅助的多目标跟踪方法,主要分为三个步骤,目标检测、匹配跟踪以及深度学习网络辅助跟踪,其简要步骤如下:第一,首先检测器对于视频的每一帧进行目标检测,检测结果为之后的跟踪做准备。第二,相邻两帧中的目标之间通过相似度匹配,得到初步的跟踪结果。第三,结合辅助跟踪网络恢复消失重现目标的跟踪轨迹,进一步提高跟踪效果。

在本实施例中,将目标以行人进行阐述。如图1所示,本方法开始执行之前,需要首先初始化检测器,使用的特征为分块的梯度统计直方图,对行人数据库提取梯度统计直方图特征,将该特征作为SVM分类器的输入,训练分类器以得到一个鲁棒的差分分类器。第一帧中检测到的目标不做匹配,直接当做新的跟踪目标,加入集合Os中,程序初始化完成。下面结合附图对本方法进行详细的描述:

步骤101:首先采用基于分块梯度直方图特征的检测器对视频图像中每一帧进行目标检测,并记录所有检测到的目标,ft表示视频帧,t是帧编号,N是视频的总帧数;检测时采用滑动窗口机制对整个图像遍历,对滑动窗口扫描过的每一个位置用SVM分类器判断是否为目标。为了能检测到不同尺度的目标,滑动窗口存在尺度变化。检测结束时,检测结果记为表示第t帧中检测到的第j个候选目标,j∈[1,n],n为在第t帧中检测到的目标总数。将所有的跟踪目标用一个集合表示,记为Os={O1,O2,...,Oz},z为跟踪目标的总数,每一个跟踪目标的轨迹记录为表示第t帧中目标i,其中i∈[1,z],t∈[1,m],下标i是唯一的跟踪标识。

基于分块梯度直方图特征的目标检测操作具体为:用行人数据库训练检测器,正样本为行人图片,负样本为背景图片。抽取训练样本的Hog特征作为分类器的输入特征,然后将准备好的数据交由SVM学习一个可以将行人和背景有效区分的超平面。

步骤102:将当前帧检测到的候选目标与已有的跟踪目标进行匹配。对每一个寻找最为相似的候选目标时,首先寻找距离最近的目标。根据空间局部性原理,认为其在第t帧中的目标不会偏离太远,通过筛选出符合距离要求的相似目标。然后用hist(.)函数提取颜色直方图特征,再由巴氏距离度量函数(记为DB)计算两个直方图分布特征的距离。选出匹配程度最高的候选目标。如果最优目标的距离同时满足距离小于阈值,认为满足强关联条件,将最优目标加入对应跟踪目标的轨迹中。当完成所有跟踪目标和候选目标之间关联之后,将没有加入到任何跟踪轨迹的候选目标加入到队列Q中。

依据空间局部性原理缩小搜索范围操作具体为:由于空间局部性原理,同一个目标在相邻帧中距离不会太大。因此,并不需要将所有候选目标与跟踪目标逐一计算距离,只需要在满足距离小于一定范围的候选目标中寻找匹配对象即可。根据如下公式进行筛选:

Ut={cjt|Euclidean(oit-1,cjt)<v}

其中Ut表示符合要求的的集合,经过筛选,候选目标的范围大大缩小,达到加快运行速度的要求。

基于满足强关联条件的关联操作具体为:对一个目标跟踪的目的是不断的寻找目标在当前帧检测结果中相似度最高的将其当做目标Oi在t帧中的预测结果寻找最相似候选目标的公式如下:

argminjdist(f(oit-1),f(cjt)),cjtCt

其中f(.)表示目标提取特征,dist(.)表示距离度量函数,当一个候选目标与距离最近且距离小于一个阈值时,认为该候选目标为匹配结果。在本实施中,目标提取特征f(.)为颜色直方图特征hist(.)。

步骤103:队列Q如果为空,则跟踪结束。否则使用辅助跟踪网络辅助跟踪。首先将现有的所有历史跟踪结果更新辅助跟踪网络,如图2所示,为本发明设计的深度神经网络结构,主要包括两个卷积层、两个最大值池化层和二值量化层,第一个卷积层滤波器个数为8,第二层滤波器为64个。当一个样本通过两层卷积之后,会生成64个特征图。每个在队列Q中的候选目标经卷积层之后加入最大值池化的运算,每经历一次池化操作,特征图的大小会变小。例如,当池化操作的卷积核为2×2时,每次池化后特征图的长宽分别会变为原来二分之一。当获取所有的卷积特征图之后,对卷积结果进行二值化操作。然后每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。对于分类层,采用有监督的学习方法学习分类器。将网络的卷积特征和标签输入到SVM中,训练得到最终的分类器。当网络更新完成后,再由网络给出Q中每一个候选目标的识别结果和置信度α。

步骤104在步骤103的描述下,将Q中识别结果的置信度α低于阈值要求的候选目标当做新出现的目标,同时将这些新出现的目标建立跟踪对象并加入到Os中。

步骤105在步骤103的描述下,将Q中识别结果的置信度α高于阈值要求的候选目标依据其识别结果进行跟踪,当置信度α高于设定的阈值时,则判断该目标之前曾出现过,再通过识别结果将其与跟踪目标对应起来,从而实现消失在线目标的轨迹恢复。

综上所述,这样就避免了传统方法在目标短暂消失再次出现时将其误判为新的跟踪目标或者丢失目标的情况。

以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号