首页> 中国专利> 一种基于深度卷积神经网络的珍稀花卉自动识别方法

一种基于深度卷积神经网络的珍稀花卉自动识别方法

摘要

本发明公开一种基于深度卷积神经网络的珍稀花卉自动识别方法,本发明方法利用图像搜索常见的普通花卉图像构建源域图像数据集,然后利用Vgg16深度卷积神经网络以及线性分类构建分类识别模型,利用源域图像以及对应的类别标签计算损失函数并使用SGD优化器对网络中的参数进行优化;接下来固定深度卷积网络中主干神经网络的参数并替换线性分类器,收集珍稀花卉图像构建目标域图像数据集,利用目标域图像以及对应的类别标签计算损失函数对网络分类器进行微调;最后利用训练好的深度卷积网络模型对珍稀花卉图像进行自动识别。本发明通过上述方式,能够大大提高对珍稀花卉的保护效率。

著录项

  • 公开/公告号CN114580553A

    专利类型发明专利

  • 公开/公告日2022-06-03

    原文格式PDF

  • 申请/专利权人 南通大学;

    申请/专利号CN202210228722.7

  • 发明设计人 杨赛;周伯俊;杨慧;

    申请日2022-03-10

  • 分类号G06K9/62;G06N3/04;G06N3/08;G06V10/764;G06V10/82;

  • 代理机构南京瑞弘专利商标事务所(普通合伙);

  • 代理人徐激波

  • 地址 226000 江苏省南通市啬园路9号

  • 入库时间 2023-06-19 15:32:14

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-06-03

    公开

    发明专利申请公布

说明书

技术领域

本发明涉及一种基于深度卷积神经网络的珍稀花卉自动识别方法,属于计算机视觉领域。

背景技术

我们生活的地球是由人类、各种动植物以及微生物组成的较为复杂的生态系统。其中植物是整个生态系统中的生产者,为各种动物提供能量,对于稳定了整个生态系统的平衡性具有重要作用。然而,由于人类工业化进程的不断加快,野生植物的生存环境不断恶化,大量的珍稀植物面临濒临灭绝的危险。例如,有些珍稀花卉不仅具有很强的观赏价值,并且含有丰富的营养价值,然而却陷入到“看一眼少一眼”的这种濒临灭绝的处境。因此,对这些包括珍稀花卉在内的野生植物进行保护,对于维护生物多样性、保护地球的生态平衡具有重要意义。

在对珍稀花卉的保护过程中,面临着诸多困难,其中一个突出问题为由于这些物种的稀缺性,珍稀花卉分类鉴定方面的专业人才非常匮乏。因此,如果能够对珍稀花卉进行自动识别,可以不再只依赖于生物学专家,在只获取少量珍稀花卉图像样本的情况下,就能完成对珍稀花卉的及时鉴定。这样即可以节省大量的人力物力,同时也可以大大提高保护效率。特征提取是图像自动分类识别性能的关键因素。深度卷积神经网络神模型通过逐层的特征变换来组合低层特征来形成抽象的高层表示,并通过对大量参数的优化学习保证模型具有强大的特征表示能力,在图像分类识别方面取得了巨大成功。因此,本发明公开一种基于深度卷积神经网络的珍稀花卉自动识别方法。

发明内容

针对上述现有技术存在的问题,本发明提供一种基于深度卷积神经网络的珍稀花卉自动识别方法,从而解决上述技术问题。

为了实现上述目的,本发明采用的技术方案是:一种基于深度卷积神经网络的珍稀花卉自动识别方法,包括以下步骤;

步骤S1:普通花卉图像的收集;

步骤S2:深度卷积网络的构建,深度卷积网络由主干神经网络、源域目标分类器以及Softmax层组成;

步骤S3:深度卷积网络的训练,从源域图像数据集随机抽取一批普通花卉图像输入到深度卷积网络中得到普通花卉图像的概率输出值,计算该概率输出值与真实标签值之间的损失函数,利用SGD优化器对网络中的参数进行优化,重复上述过程多次,直到损失函数收敛;

步骤S4:珍稀花卉图像的收集;

步骤S5:深度卷积网络的微调,固定深度卷积网络中主干神经网络的参数,将源域目标分类器替换为目标域分类器,从目标域图像数据集随机抽取一批珍稀花卉图像输入到深度卷积网络中得到珍稀花卉图像的概率输出值,计算该概率输出值与真实标签值之间的损失函数,利用SGD优化器对网络中的参数进行优化,重复上述过程多次,直到损失函数收敛;

步骤S6:珍稀花卉图像的分类测试,固定深度卷积网络中主干神经网络以及目标域分类器中的参数,将在线采集到的珍稀花卉图像输入到深度卷积网络中得到珍稀花卉图像的类别值。

进一步的,所述步骤S1的具体步骤如下:

S11:利用图像搜索引擎搜索100类常见的普通花卉,每类收集100幅图像;按照花卉的生物学特性,这些花卉总体上被分为草本花卉和木本花卉两大类别;

S12:将收集到的图像中模糊的图像、重复或者相似性极高的图像进行人工剔除,从而构建源域图像数据集I

进一步的,所述步骤S2的具体步骤如下:

S21:深度卷积网络的主干神经网络为VGG16,该网络包含13个卷积层和3个全连接层。所有卷积层又被分为5组,每组内包含2到3个卷积层以及一个最大池化层,这5组内部卷积核的数量分别为64,128,256,512,512。主干神经网络表示为V

S22:深度卷积网络中的源域分类器表示为L

S23:深度卷积网络中的Softmax层表示为S(·),将常见花卉图像的源域类别分类值转化为类别概率输出值。

进一步的,所述步骤S3的具体步骤如下:

S31:从源域图像数据集随机抽取一批普通花卉图像,其中第i幅图像表示为I

S32:源域图像输入到深度卷积网络中的主干神经网络中提取的特征表示为V

S33:源域分类器利用图像特征对常见花卉图像计算源域类别分类值的公式为:

S

其中[s

S34:卷积神经网络中的softmax层S(·)将源域分类分值S

其中S

S35:概率输出值与真实标签值之间损失函数的计算公式为:

Loss

其中y

S36:基于上述损失函数,利用SGD优化器网络中的参数进行优化,其中训练的epoch被设为200,初始学习率设为0.05。

进一步的,所述步骤S4的具体步骤如下:

S41:利用图像搜索引擎搜索20类常见的普通花卉,每类收集5幅图像;

S42:将收集到的图像中模糊的图像、重复或者相似性极高的图像进行人工剔除,从而构建目标域图像数据集I

进一步的,所述步骤S5的具体步骤如下:

S51:固定深度卷积网络中主干神经网络的参数θ,将源域分类器替换为目标域分类器,目标域分类器表示为L

S52:从目标域图像数据集随机抽取一批珍稀花卉图像,其中第j幅图像表示为I

S53:目标域图像输入到深度卷积网络中的主干神经网络中提取的特征表示为V

S54:目标域分类器利用图像特征对常见花卉图像计算目标域类别分类值的公式为:

S

其中[o

S55:卷积神经网络中的softmax层S(·)将目标域分类分值S

其中S

S56:概率输出值与真实标签值之间损失函数的计算公式为:

Loss

其中y

S57:基于上述损失函数,利用SGD优化器对网络中的参数进行优化,其中训练的epoch被设为100,初始学习率设为0.01。

进一步的,所述步骤S6的具体步骤如下:

S61:固定深度卷积网络中主干神经网络中的参数θ以及目标域分类器中的参数;

S62:在线采集到的珍稀花卉图像表示为x,输入到深度卷积网络中提取到的特征表示V

本发明的有益效果是:本发明方法利用图像搜索常见的普通花卉图像构建源域图像数据集,然后利用Vgg16深度卷积神经网络以及线性分类构建分类识别模型,利用源域图像以及对应的类别标签计算损失函数并使用SGD优化器对网络中的参数进行优化;接下来固定深度卷积网络中主干神经网络的参数并替换线性分类器,收集珍稀花卉图像构建目标域图像数据集,利用目标域图像以及对应的类别标签计算损失函数对网络分类器进行微调;最后利用训练好的深度卷积网络模型对珍稀花卉图像进行自动识别。本发明通过上述方式,从而能够大大提高对珍稀花卉的保护效率。

附图说明

图1为本发明的基于深度卷积神经网络的珍稀花卉自动识别方法的流程图;

图2为本发明的普通花卉分类表;

图3为本发明的源域数据集中的示例图像;

图4为本发明的目标域数据集中的示例图像;

图5为本发明的主干神经网络的架构图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚明了,下面通过附图及实施例,对本发明进行进一步详细说明。但是应该理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限制本发明的范围。

除非另有定义,本文所使用的所有的技术术语和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同,本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。

如图1所示,一种基于深度卷积神经网络的珍稀花卉自动识别方法,包括以下步骤;

步骤S1:普通花卉图像的收集;

S11:利用图像搜索引擎搜索100类常见的普通花卉,每类收集100幅图像;按照花卉的生物学特性,这些花卉总体上被分为草本花卉和木本花卉两大类别,其参照图2所示;

S12:将收集到的图像中模糊的图像、重复或者相似性极高的图像进行人工剔除,从而构建源域图像数据集I

步骤S2:深度卷积网络的构建,深度卷积网络由主干神经网络、源域目标分类器以及Softmax层组成;

S21:深度卷积网络的主干神经网络为VGG16,该网络包含13个卷积层和3个全连接层。所有卷积层又被分为5组,每组内包含2到3个卷积层以及一个最大池化层,这5组内部卷积核的数量分别为64,128,256,512,512。主干神经网络表示为V

S22:深度卷积网络中的源域分类器表示为L

S23:深度卷积网络中的Softmax层表示为S(·),将常见花卉图像的源域类别分类值转化为类别概率输出值。

步骤S3:深度卷积网络的训练,

S31:从源域图像数据集随机抽取一批普通花卉图像,其中第i幅图像表示为I

S32:源域图像输入到深度卷积网络中的主干神经网络中提取的特征表示为V

S33:源域分类器利用图像特征对常见花卉图像计算源域类别分类值的公式为:

S

其中[s

S34:卷积神经网络中的softmax层S(·)将源域分类分值S

其中S

S35:概率输出值与真实标签值之间损失函数的计算公式为:

Loss

其中y

S36:基于上述损失函数,利用SGD优化器网络中的参数进行优化,其中训练的epoch被设为200,初始学习率设为0.05。

步骤S4:珍稀花卉图像的收集;

S41:利用图像搜索引擎搜索20类常见的普通花卉,每类收集5幅图像;

S42:将收集到的图像中模糊的图像、重复或者相似性极高的图像进行人工剔除,从而构建目标域图像数据集I

步骤S5:深度卷积网络的微调;

S51:固定深度卷积网络中主干神经网络的参数θ,将源域分类器替换为目标域分类器,目标源域分类器表示为L

S52:从目标域图像数据集随机抽取一批珍稀花卉图像,其中第j幅图像表示为I

S53:目标域图像输入到深度卷积网络中的主干神经网络中提取的特征表示为V

S54:目标域分类器利用图像特征对常见花卉图像计算目标域类别分类值的公式为:

S

其中[o

S55:卷积神经网络中的softmax层S(·)将目标域分类分值S

其中S

S56:概率输出值与真实标签值之间损失函数的计算公式为:

Loss

其中y

S57:基于上述损失函数,利用SGD优化器对网络中的参数进行优化,其中训练的epoch被设为100,初始学习率设为0.01。

步骤S6:珍稀花卉图像的分类测试,固定深度卷积网络中主干神经网络以及源域目标分类器中的参数,将在线采集到的珍稀花卉图像输入到深度卷积网络中得到珍稀花卉图像的类别值。

S61:固定深度卷积网络中主干神经网络中的参数θ以及目标域分类器中的参数;

S62:在线采集到的珍稀花卉图像表示为x,输入到深度卷积网络中提取到的特征表示V

以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换或改进等,均应包含在本发明的保护范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号