首页> 中文学位 >基于深度学习和多相机融合的实时目标检测和定位
【6h】

基于深度学习和多相机融合的实时目标检测和定位

代理获取

目录

声明

摘要

1.1 研究背景

1.2 研究意义

1.3 本文主要工作

1.4 本文组织结构

第二章 相关工作

2.1 二维目标检测

2.1.1 传统检测方法

2.1.2 深度学习检测方法

2.2 姿态估计

2.3 三维目标检测和定位

2.4 三维空间的点匹配算法

2.5 本章小结

第三章 SS3D网络架构

3.1 二维检测器

3.1.1 SSD候选框设计

3.1.2 候选框分布匹配

3.1.3 数据合成

3.1.4 色彩校正

3.1.5 预测模块

3.2 姿态估计

3.3 维度回归

3.4 损失函数

3.5 三维检测器

3.6 多视角融合

3.7 本章小结

第四章 实验结果及分析

4.1 二维检测和姿态估计

4.2 三维空间定位

4.3 本章小结

5.1 本文总结

5.2 局限性

5.3 研究展望

参考文献

致谢

攻读学位期间发表的学术论文和参加科研情况

展开▼

摘要

在过去的几年里,基于单目图像的二维目标检测已经取得了飞速的发展。图像二维检测的结果可以帮助获取图像中的语义信息,便于感知真实世界。然而,仅仅拥有图像的语义信息并不能与真实环境进行交互,这需要感知真实的三维空间信息。
  准确的感知周边环境可以帮助在三维空间躲避障碍物,安全导航。三维的感知能力主要包括三维的检测和定位。对于自动驾驶领域来说,三维感知是非常关键的部分。本文提出的算法主要就是应用于自动驾驶方面。基于二维检测框架SSD,提出了全新的三维深度学习检测框架SS3D。SS3D是基于单目图像作为网络输入,然后预测得到带有朝向的三维包围盒,进而实现三维空间的检测和定位。
  三维检测器的实现是基于二维包围盒的检测结果,姿态的估计以及三维维度的预测,然后利用几何限制和投影关系计算得到三维带朝向的包围盒结果。除此之外,还进一步研究了SSD的候选框空间分布,然后提出了一种能够更优匹配训练数据的分布方法,便于更好地训练。为了加强SS3D对于困难数据的检测性能,提出了一种困难数据合成方法,增加更多遮挡的训练数据,进而提升检测能力。候选框分布和困难样本的合成方法都很简单有效,在KITTI数据集上也做了一系列的对比实验和比较,进一步阐述了SS3D的性能。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号