首页> 中文学位 >基于卷积神经网络的多曝光图像融合方法研究与实现
【6h】

基于卷积神经网络的多曝光图像融合方法研究与实现

代理获取

目录

声明

摘要

1.1 研究背景与目的

1.2 国内外研究现状

1.3 主要工作

1.4 论文结构

2.1 引言

2.2 前馈神经网络

2.2.1 前向传播

2.2.2 激活函数

2.2.3 反向传播算法

2.3 卷积神经网络

2.3.1 卷积层

2.3.2 反卷积层

2.4 本章小结

3.1 引言

3.2 生成网络模型

3.2.1 全卷积网络

3.2.2 编码器-解码器模型

3.2.3 U型编码-解码网络

3.2.4 U-ResNet模型

3.3 融合器

3.4 网络输出

3.4.1 色调映射输出

3.4.2 损失函数

3.5 评价标准

3.5.1 峰值信噪比

3.5.2 HDR-VDP-2

3.6 实验与分析

3.6.2 实验设置

3.6.3 融合器的对比实验与分析

3.6.4 量化分析

3.6.5 图像生成结果分析

4.1 引言

4.2 生成式对抗网络模型

4.3 判别网络模型

4.4 实验与分析

4.4.1 量化分析

4.4.2 图像生成结果分析

第五章 总结与展望

5.1 主要工作总结

5.2 研究展望

参考文献

致谢

攻读学位期间的学术成果

所获奖励与名誉

展开▼

摘要

随着时代的进步和科技的不断发展,数字图像因其储存的便利性,成为了人们生活中不可缺少的部分。但与人们置身于真实场景中所获得的视感成像相比,目前广泛使用的数字图像动态范围较小,图像质量尚不能满足人们的需求。在这样的背景下,高动态范围图像受到人们的关注,成为了图像处理领域的研究热点。现有的研究普遍采用融合不同曝光度低动态范围图像的方法来生成目标场景的高动态范围图像,而生成的高动态范围图像必须通过色调映射算法重新压缩成低动态范围图像后才能在目前主流的显示设备上显示。
  本文提出了一种基于卷积神经网络的多曝光图像融合方法,跳过传统方法中低动态范围图像合成高动态范围图像再经过色调映射的步骤,通过改进的编码器-解码器模型将不同曝光度的低动态范围图像融合成一张以指定图像内容为参考的图像,具体研究内容如下:
  (1)在传统的编码器-解码器生成模型的基础上,应用跳跃式连接,构建U型编码-解码网络模型,较好地保留了图像融合过程中多层次的图像信息;同时对浅层图像特征应用了基于参考图片的对齐融合,较好地处理了多曝光融合过程中的鬼影问题;在此基础上,引入残差单元结构,在保证图像特征维度不变的前提下增加生成网络的深度,提升了生成图像的局部细节质量;
  (2)将生成式对抗网络模型框架引入生成网络模型的训练过程,讨论了生成式网络分别在L2范数损失函数和判别式网络模型下学习优化的优劣;针对生成结果局部细节质量不佳的问题,提出了基于区块的判别网络模型;大量实验证明,所提出方法在多曝光图像融合任务中提高了图像细节的质量,并在去除运动影响方面有较好的效果。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号