首页> 中国专利> 一种基于红外微光望远镜的多源融合唇语识别方法和系统

一种基于红外微光望远镜的多源融合唇语识别方法和系统

摘要

本发明公开了一种基于红外微光望远镜的多源融合唇语识别方法和系统,方法包括获取红外热成像视频和微光视频,提取唇部区域的红外热成像图像数据和微光图像数据;使用多源融合唇语识别模型对唇部区域的红外热成像图像数据和微光图像数据进行识别,得到识别出的文本;将识别出的文本显示或发送至其他接收设备。本发明所提供的方法,为在复杂光照环境、远距离和特殊应用场合提供了更加安全可靠的信息获取与交互方式,弥补了单一视频数据来源特征提取和唇部图像识别的局限性,通过多源数据特征融合建模极大地提高了唇语识别的准确性,拓展了唇语识别技术的应用范围和场景,为唇语识别技术的发展提供了新的方向。

著录项

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-07-29

    公开

    发明专利申请公布

说明书

技术领域

本发明属于语音识别领域,特别涉及一种基于红外微光望远镜的多源融合唇语识别方法和系统。

背景技术

基于唇部图像的语音解析是通过唇部动作来解析说话者所说的内容。近年来,国内在唇语识别方面发展速度十分迅速。例如,搜狗联合清华天工研究院共同设计了基于模态重要程度的注意力机制,使模型可以自适应调整模态权重来融合音视觉特征。2019年,中科院计算所发布了目前最大规模的中文词级唇读数据集LRW-1000,其包含了复杂的变化条件,包括唇部角度、光照、语速等,模拟了自然条件下唇部样本的分布,为今后国内外中文唇读研究者提供了更丰富的标准研究样本。虽然唇语识别技术在性能方面有了较大突破,但其准确率受光线、角度、训练模型等因素的影响较大,特别是在光照亮度较低、距离使用者或被观察者较远时无法获取有效的图像数据。这种唇部图像的获取方式限制了唇语识别的应用环境与场合,无法满足如战术侦察、进攻目标信息获取等特殊应用需求。

基于红外和微光成像融合的望远镜可用于环境侦察、目标对象追踪、抢险救援等多种场合,具有侦察距离远、范围广,方便携带和适应性好等特点。红外热成像系统不受光照条件限制,可以全天候工作,具有较强的穿透雾、霾、雨、雪等极端气象条件的能力,作用距离更远。而微光成像响应速度快,敏感于目标对象的反射,分辨率较高。通过红外微光融合的望远镜进行不同光照条件下的远距离观测和目标视频图像获取,可以获取目标对象的多源面部图像数据,根据其面部信息进行唇语识别,从而更快速准确地得到目标对象的交互信息和意图。这种唇部图像获取方式弥补了传统唇语识别系统的数据采集限制,拓宽了唇语识别技术的应用领域与场合,提高了唇语识别系统的识别准确度,也为特殊应用场景如与特种作战提供了更加安全可靠的信息获取途径。

发明内容

本发明提出了一种基于红外微光望远镜的多源融合唇语识别方法,包括:

获取红外热成像视频和微光视频,提取唇部区域的红外热成像图像数据和微光图像数据;

使用多源融合唇语识别模型对唇部区域的红外热成像图像数据和微光图像数据进行识别,得到识别出的文本;

将识别出的文本显示或发送至其他接收设备。

进一步地,所述对获取红外热成像视频和微光视频,提取唇部区域的红外热成像图像数据和微光图像数据包括:

采集红外热成像视频和微光成像视频后,将视频数据进行分帧,得到目标对象的红外热成像图像序列和微光图像序列;

根据所述目标对象的红外热成像图像和微光图像进行人脸检测和唇部区域标记,得到目标对象唇部区域的红外热成像图像数据和微光图像数据;

所述根据所述目标对象的红外热成像图像序列和微光图像序列进行人脸检测和唇部区域标记,得到目标对象唇部区域的红外热成像图像数据和微光图像数据包括:

使用动态多帧平均算法对红外热成像图像序列进行降噪;使用帧间差分法确定目标对象开始说话时的图像起始点和终止点;根据人脸的几何结构比例定位唇部区域,得到目标对象唇部区域的红外热成像图像数据;

使用帧积分法对微光图像序列进行图像降噪;使用帧间差分法确定目标对象开始说话时的图像起始点和终止点;根据人脸的几何结构比例定位唇部区域,得到目标对象唇部区域的微光图像数据。

进一步地,所述多源融合唇语识别模型使用如下方式建立:

获取若干红外热成像视频和微光视频及对应的文本,提取其唇部区域的红外热成像图像数据和微光图像数据;

将提取的红外热成像图像数据和微光图像数据及对应的文本送入到双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络中进行学习,其中,

提取的红外热成像图像数据和微光图像数据为输入数据,对应的文本为输出数据。

进一步地,所述双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络,包括两个CNN-ResNet-LSTM网络,一个Bi-LSTM网络,一个RNN-LM网络;两个CNN-ResNet-LSTM网络输出部分分别与Bi-LSTM输入层连接; Bi-LSTM输出层与RNN-LM输入层连接;

其中,两个CNN-ResNet-LSTM网络分别用于对红外热成像图像数据和微光图像数据分别进行特征提取,得到基于红外热成像图像的特征和基于微光图像的特征;Bi-LSTM用于对基于红外热成像图像的特征和基于微光图像的特征进行融合,得到多源融合唇部图像特征;RNN-LM对融合后的多源融合唇部图像特征进行文本学习和匹配,通过集束搜索得到最大概率的输出文本。

进一步地,所述两个CNN-ResNet-LSTM分别对红外热成像图像数据和微光图像数据分别进行特征提取包括:

使用CNN对红外热成像图像数据进行空间特征提取;所述CNN由1 个3D卷积层、1个最大池化层堆叠组成;

所述CNN卷积层对输入特征做矩阵元素乘法求和并叠加偏差量,如式 (5)所示:

池化层如式6所示:

使用ResNet对目标红外热成像图像空间特征进行数据降维;

所述ResNet网络共有三个残差单元后加自适应平均池化层,第一个残差单元采用三对64卷积核的卷积神经网络;第二个残差单元采用四对128 卷积核的卷积神经网络;第三个残差单元采用六对256卷积核的卷积神经网络;

残差单元如式7所示:

x

其中,x

使用LSTM增加红外热成像图像数据降维后空间特征的时序特征,得到基于红外热成像图像的特征;

所述LSTM的遗忘门输入为上一逻辑单元输出层的输出值h

f

其中,σ表示激活函数sigmoid,b

LSTM的输入门包含两个部分,第一部分使用sigmoid作为激活函数,输出为i

i

其中,σ表示激活函数sigmoid,b

LSTM输入门的第二部分作为本层状态更新,如式10所示:

其中,tanh是激活函数,b

长短期记忆网络当前逻辑单元的输出如式11所示:

h

其中,σ表示激活函数sigmoid,b

使用CNN对微光图像数据进行空间特征提取;使用ResNet对微光图像空间特征进行数据降维;使用LSTM增加微光图像数据特征的时序特征,得到基于微光图像的特征。

进一步地,所述卷积层包含64个三维卷积核,每个三维卷积核大小为 (5,7,7),卷积步长为(1,2,2),填充步长为(2,3,3)。

本发明还提供一种基于红外微光望远镜的多源融合唇语识别系统,所述多源融合唇语识别系统包括,

获取模块,用于获取红外热成像视频和微光视频;

提取模块,用于从红外热成像视频和微光视频提取唇部区域的红外热成像图像数据和微光图像数据;

识别模块,用于使用多源融合唇语识别模型对唇部区域的红外热成像图像数据和微光图像数据进行识别,得到识别出的文本;

显示模块,用于将识别出的文本显示;

输出模块,用于将识别出的文本发送至其他接收设备。

进一步地,所述系统还包括:

模型建立模块,用于建立多源融合唇语识别模型;

所述多源融合唇语识别模型使用如下方式建立:

获取若干红外热成像视频和微光视频及对应的文本,提取其唇部区域的红外热成像图像数据和微光图像数据;

将提取的红外热成像图像数据和微光图像数据及对应的文本送入到双 CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络中进行学习,其中,

提取的红外热成像图像数据和微光图像数据为输入数据,对应的文本为输出数据。

进一步地,所述双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络,包括两个CNN-ResNet-LSTM网络,一个Bi-LSTM网络,一个RNN-LM网络;两个CNN-ResNet-LSTM网络输出部分分别与Bi-LSTM输入层连接; Bi-LSTM输出层与RNN-LM输入层连接;

其中,两个CNN-ResNet-LSTM网络分别用于对红外热成像图像数据和微光图像数据分别进行特征提取,得到基于红外热成像图像的特征和基于微光图像的特征;Bi-LSTM用于对基于红外热成像图像的特征和基于微光图像的特征进行融合,得到多源融合唇部图像特征;RNN-LM对融合后的多源融合唇部图像特征进行文本学习和匹配,通过集束搜索得到最大概率的输出文本。

进一步地,所述两个CNN-ResNet-LSTM分别对红外热成像图像数据和微光图像数据分别进行特征提取包括:

使用CNN对红外热成像图像数据进行空间特征提取;使用ResNet对目标红外热成像图像空间特征进行数据降维;使用LSTM增加红外热成像图像数据降维后空间特征的时序特征;得到基于红外热成像图像的特征;

使用CNN对微光图像数据进行空间特征提取;使用ResNet对微光图像空间特征进行数据降维;使用LSTM增加微光图像数据特征的时序特征,得到基于微光图像的特征。

本发明使用红外与微光融合的望远镜在不同光照环境,从远距离获取目标对象唇部区域的多源图像信息,通过机器学习和深度学习算法进行多源融合的唇部特征提取与建模,并使用语言模型进行文本合成和输出。这种唇语识别的数据获取与处理系统为复杂光照环境、远距离和特殊应用场合提供了更加安全可靠的信息获取与交互方式。弥补了单一视频数据来源特征提取和唇部图像识别的局限性,通过多源数据特征融合建模极大地提高了唇语识别的准确性。拓展了唇语识别技术的应用范围和场景,为唇语识别技术的发展提供了新的方向。

附图说明

图1示出了本发明实施例中一种基于红外微光望远镜的多源融合唇语识别方法的流程示意图;

图2示出了本发明实施例中双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM 网络结构的示意图;

图3本发明实施例中一种基于红外微光望远镜的多源融合唇语识别系统结构的示意图。

具体实施方式

下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整地传达给本领域的技术人员。

本发明设计一种基于红外微光望远镜的多源融合唇语识别方法,如图1 所示。本发明中建立模型或最终的识别,均需要通过红外微光望远镜获取目标对象的红外热成像视频和微光视频并进行相应视频预处理。

通过红外微光望远镜获取目标对象的红外热成像视频和微光视频并进行相应视频预处理方法如下。

S1:获取红外热成像视频和微光视频,提取唇部区域的红外热成像图像数据和微光图像数据。

在不同的环境中,通过红外微光融合望远镜采集得到的红外热成像视频和微光成像视频可能不同。如在南方热带或亚热带地区,得到的红外热成像视频效果不佳;而目标对象如处于光线高度变换较剧烈场所,得到的微光成像视频效果不佳。同时获取红外热成像视频和微光视频,能够根据其面部信息进行唇语识别,从而更快速准确地得到目标对象的交互信息和意图。

通过红外微光融合望远镜同步采集包含目标对象的红外热成像视频和微光成像视频,将视频数据进行分帧得到目标对象的红外热成像图像和微光图像。根据所述目标对象的红外热成像图像和微光图像进行人脸检测和唇部区域标记,得到目标对象唇部区域的红外热成像图像数据和微光图像数据。

建立模型时,采集目标对象的红外热成像视频和微光成像视频的同时,收集对应的文本。可以使用但不限于以下方式采集视频和文本,找到若干实验者,在各种光线下,指定若干文本进行说话,并用红外微光融合望远镜拍摄;包括不同亮度的,不同色彩的,自然光或人工光等各种光线。

采集红外热成像视频和微光成像视频后,将视频数据进行分帧,具体帧数取决于录像设备,如将红外热成像视频每1秒分85帧,微光视频数据每1秒分为60帧,得到目标对象的红外热成像图像序列和微光图像序列。图像序列是多个连续图像的组合。

根据所述目标对象的红外热成像图像序列和微光图像序列进行人脸检测和唇部区域标记,得到目标对象唇部区域的红外热成像图像数据和微光图像数据,包括:

对红外热成像图像序列进行图像降噪,采用动态帧间滤波提高红外热成像图像序列的信噪比。使用动态多帧平均算法对红外热成像图像序列进行降噪,示例性的,使用20帧动态多帧平均算法对红外热成像图像序列进行降噪,如式1所示:

其中,k为第k帧图像序列中的图像,k≥20,j=20,19,…2,f(x,y,t) 表示原始图像在t时刻第k帧(x,y)坐标位置处的像素值。

对降噪后的红外热成像图像序列,使用帧间差分法(Temporal Difference)确定目标对象开始说话时的图像起始点和终止点。帧间差分法是一种通过对视频图像序列连续两帧图像进行差分运算从而获得运动目标轮廓的方法,当相邻两帧图像之间出现较为明显的差别时,将两帧图像对应位置像素值相减,其绝对值将大于设定的阈值。通过对连续的降噪后的红外热成像图像序列进行帧间差分运算,得到目标对象开始说话和结束说话时唇部区域的运动轮廓变化,标记为唇语识别的起始点和终止点,帧间差分法如式2所示:

其中,D(x,y)为连续两帧红外热成像图像的差分图像,I(t)和I(t-1) 分别为t和(t-1)时刻的红外热成像图像在同一点的像素值,T为差分图像二值化时选取的像素阈值,T的值由操作人员根据红外热成像图像像素及经验设置,示例性的,T=20。

通过帧间差分法保留目标对象说话过程中降噪后的红外热成像图像序列。

根据人脸的几何结构比例定位唇部区域,得到目标对象唇部区域的红外热成像图像数据。由于脸部元素位置关系在任何情况下都不会改变,因此可以通过关键人脸元素的几何关系推断和检测嘴唇的区域。唇部区域位置如式3获示:

其中,W

通过关键人脸元素检测目标对象说话过程中的唇部运动信息,根据唇部区域大小截取唇部区域运动图像序列。此时得到目标对象完整说话过程中唇部区域的红外热成像图像数据,该数据是多个连续图像的组合,即图像序列。在本申请中,使用红外热成像图像数据矩阵H(M,x,y)做为用于输入的红外热成像图像数据。红外热成像图像数据矩阵H是个三维矩阵,其中M表示帧数,(x,y)表示每帧图像的像素大小,第一维是帧数,第二三维共同组成每帧图像的像素大小,帧数M是包含在矩阵之内的。这里的红外热成像图像数据矩阵是经过视频预处理后直接输入后续神经网络的数据。由于进行了唇部区域提取和裁剪,最终的图像序列像素大小由唇部区域的大小决定。示例性的,此时M=85,(x,y)=(200,150)。

对微光图像序列进行图像降噪,采用帧积分法提高图像信噪比。帧积分法对连续20帧微光图像序列进行积分,如式4所示:

其中,P表示微光图像序列累计m帧后图像的像素功率,0

对降噪后的微光图像序列,使用帧间差分法确定目标对象开始说话时的图像起始点和终止点,保留目标对象说话过程中的微光图像序列;根据人脸的几何结构比例定位唇部区域,根据唇部区域大小截取唇部区域运动图像序列。此时得到目标对象完整说话过程中唇部区域的微光图像数据,使用微光图像数据矩阵W(M,x,y)做为用于输入的微光图像数据,其中M 表示帧数,(x,y)表示每帧图像的像素大小。示例性的,M=60,(x,y)=(200,150)。

S2:根据所述目标对象唇部区域红外热成像图像数据和微光图像数据确定多源唇部特征,建立多源融合唇语识别模型。

本发明使用双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络建立多源融合唇语识别模型。双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络,如图2 所示,包括两个CNN-ResNet-LSTM网络,一个Bi-LSTM网络,一个 RNN-LM网络;两个CNN-ResNet-LSTM网络输出部分分别与Bi-LSTM输入层连接;Bi-LSTM输出层与RNN-LM输入层连接。

本发明使用两个CNN-ResNet-LSTM分别对红外热成像图像数据和微光图像数据分别进行特征提取,使用双向长短期记忆网络(Bi-LSTM)对基于红外热成像图像的特征和基于微光图像的特征进行融合,使用 RNN-LM对融合后的多源融合唇部图像特征进行文本学习和匹配,最终学习生成多源融合唇语识别模型。

使用两个CNN-ResNet-LSTM分别对红外热成像图像数据和微光图像数据分别进行特征提取如下:

使用3D卷积神经网络(ConvolutionalNeural Network,CNN)对目标对象唇部区域的红外热成像图像数据矩阵H(85,200,150)进行空间特征提取。卷积神经网络由多个卷积层、池化层和全连接层堆叠组成。本发明的CNN 由1个3D卷积层、1个最大池化层堆叠组成。卷积层内部包含多个卷积核,组成卷积核的每个元素都对应一个权重系数和一个偏差量(bias vector),类似于一个前馈神经网络的神经元。本发明卷积层内部包含64个三维卷积核,即式5中的特征图通道数,每个三维卷积核大小为(5,7,7)。卷积层内每个神经元都与前一层中位置接近的区域的多个神经元相连,区域的大小取决于卷积核的大小,卷积核在工作时,会有规律地扫过输入特征,对输入特征做矩阵元素乘法求和并叠加偏差量,如式5所示:

其中,(i,j)∈{0,1,…,L

在本发明中,f=(5,7,7);s

池化层的如式6所示:

其中,

使用残差网络(ResNet)对目标对象唇部区域的红外热成像图像空间特征进行数据降维。残差网络的提出解决了深度模型在训练时梯度消失或梯度爆炸的问题。

本发明使用ResNet34网络,优选的,采用ResNet34的简化版本。所述残差网络共有三个残差单元后加自适应平均池化层。第一个残差单元采用三对(6个)64卷积核的卷积神经网络;第二个残差单元采用四对(8个) 128卷积核的卷积神经网络;第三个残差单元采用六对(12个)256卷积核的卷积神经网络,每个卷积核的大小是3*3(2D卷积)。

其中,网络中的残差单元如式7所示:

x

其中,x

使用长短期记忆网络增加红外热成像图像数据降维后空间特征的时序特征。长短期记忆网络(LSTM)是一种特殊的循环神经网络(Recurrent Neural Network,RNN),但它的门结构(输入门、遗忘门和输出门)解决了循环神经网络长依赖的问题,使网络本身可以存储长期的信息。本申请中,用于对单模态时空特征提取的LSTM网络隐藏层状态维数为512,模型结构不变。长短期记忆网络的遗忘门决定需要丢弃的信息,其输入为上一逻辑单元输出层的输出值h

f

其中,σ表示激活函数sigmoid,b

长短期记忆网络的输入门包含两个部分,第一部分使用sigmoid作为激活函数,输出为i

i

其中,σ表示激活函数sigmoid,b

LSTM输入门的第二部分作为本层状态更新,如式10所示:

其中,tanh是激活函数,b

长短期记忆网络当前逻辑单元的输出如式11所示:

h

其中,σ表示激活函数sigmoid,b

使用CNN-ResNet-LSTM对红外热成像图像数据进行特征提取后,得到基于红外热成像图像的特征。

使用3D卷积神经网络,对目标对象唇部区域的微光图像像素数据矩阵 W(60,200,150)进行空间特征提取;使用残差网络对目标对象唇部区域的微光图像空间特征进行数据降维;使用长短期记忆网络增加微光图像数据特征的时序特征,得到基于微光图像的特征。

将基于红外热成像图像的特征和基于微光图像的特征进行融合,得到多元融合唇部图像特征;

LSTM模型输出是单模态的特征。将基于红外热成像图像的特征提取模型后端长短期记忆网络(LSTM)的输出作为红外热成像数据矩阵的时空特征向量,将基于微光图像的特征提取模型后端长短期记忆网络(LSTM) 的输出作为微光数据矩阵的时空特征向量,对两种特征向量进行拼接,得到多源融合唇部图像特征;

将多源融合唇部图像特征作为融合网络输入,使用隐藏层状态维数为 1024,层数为2层的双向长短期记忆网络(Bi-LSTM)作为融合网络,进一步对多元融合唇部图像特征建模。将双向长短期记忆网络的输出作为多源融合的特征建模数据,得到多源融合唇部图像特征。

本发明使用双向长短期记忆网络(Bi-LSTM)对基于红外热成像图像的特征和基于微光图像的特征进行融合,得到目标对象的多源融合唇部图像特征,融合特征数据流正向和反向传播,主要用于对拼接后的特征进行进一步建模。

本发明使用RNN-LM对融合后的多源融合唇部图像特征进行文本学习和匹配,通过集束搜索得到最大概率的输出文本。

融合后的多源融合唇部图像特征进入RNN-LM网络,进行文本学习和匹配,合成文本输出。本发明在循环神经网络(RNN)引入了定向循环,用于处理输入之间前后关联的问题。LM指语言模型Language Model,是一种句法集合,简单的语言模型可以根据训练使用的实际文本构建语法库,从而计算模型上下文文字输出概率,LM语言模型使用bigram语言模型,即当前解码输出字符仅与前一字符相关。解码输出文本序列的概率如式12 所示:

P(T)=p(w

其中T为解码输出文本序列,p(w

集束搜索采用宽度为4的集束搜索算法。即在当前所有的解码序列中选择概率最大的4个继续进行解码。

本发明中,循环神经网络隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。当前文本的输出取决于不定长度的前序网络输出,相比于基于前馈神经网络的语言模型,基于循环神经网络的语言模型可以形成短期记忆,从而更灵活地进行文本信息学习和文本输出。循环神经网络在t时刻接收到输入 x

o

s

其中,U是输入层到隐藏层的权重矩阵,W是前序时刻隐藏层值的权重矩阵,f是隐藏层的激活函数;V是隐藏层到输出层的权重矩阵,g是输出层的激活函数。

本发明使用双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络建立模型,其中,将S1步骤中得到的红外热成像图像数据和微光图像数据作为输入,该红外热成像图像数据和微光图像数据对应的文本作为输出,学习生成多源融合唇语识别模型。

S3:获取新的红外热成像视频和微光视频,提取新的唇部区域的红外热成像图像数据和微光图像数据,使用多源融合唇语识别模型对唇部区域的红外热成像图像数据和微光图像数据进行识别,得到相应文本。

实际采集红外热成像视频和微光视频,提取其唇部区域的红外热成像图像数据和微光图像数据,将红外热成像图像数据和微光图像数据输入到多源融合唇语识别模型中,识别生成对应的文本。

识别出的文本能够送到相应的设备进行显示,也可以发送至与其相连接的接收设备待后续处理。

本发明实施例还提供了一种基于红外微光望远镜的多源融合唇语识别的系统,如图3所示,包括:

获取模块,用于获取红外热成像视频和微光视频;

提取模块,用于从红外热成像视频和微光视频提取唇部区域的红外热成像图像数据和微光图像数据;

识别模块,用于使用多源融合唇语识别模型对唇部区域的红外热成像图像数据和微光图像数据进行识别,得到识别出的文本;

显示模块,用于将识别出的文本显示;

输出模块,用于将识别出的文本发送至其他接收设备。

模型建立模块,用于建立多源融合唇语识别模型;

所述多源融合唇语识别模型使用如下方式建立:

获取若干红外热成像视频和微光视频及对应的文本,提取其唇部区域的红外热成像图像数据和微光图像数据;

将提取的红外热成像图像数据和微光图像数据及对应的文本送入到双 CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络中进行学习,其中,

提取的红外热成像图像数据和微光图像数据为输入数据,对应的文本为输出数据。

所述双CNN-ResNet-LSTM-Bi-LSTM-RNN-LM网络,包括两个 CNN-ResNet-LSTM网络,一个Bi-LSTM网络,一个RNN-LM网络;两个 CNN-ResNet-LSTM网络输出部分分别与Bi-LSTM输入层连接;Bi-LSTM 输出层与RNN-LM输入层连接;

其中,两个CNN-ResNet-LSTM网络分别用于对红外热成像图像数据和微光图像数据分别进行特征提取,得到基于红外热成像图像的特征和基于微光图像的特征;Bi-LSTM用于对基于红外热成像图像的特征和基于微光图像的特征进行融合,得到多源融合唇部图像特征;RNN-LM对融合后的多源融合唇部图像特征进行文本学习和匹配,通过集束搜索得到最大概率的输出文本。

所述两个CNN-ResNet-LSTM分别对红外热成像图像数据和微光图像数据分别进行特征提取包括:

使用CNN对红外热成像图像数据进行空间特征提取;使用ResNet对目标红外热成像图像空间特征进行数据降维;使用LSTM增加红外热成像图像数据降维后空间特征的时序特征;得到基于红外热成像图像的特征;

使用CNN对微光图像数据进行空间特征提取;使用ResNet对微光图像空间特征进行数据降维;使用LSTM增加微光图像数据特征的时序特征,得到基于微光图像的特征。

本发明所设计的一种基于红外微光望远镜的多源融合唇语识别方法,使用红外与微光融合的望远镜在不同光照环境,从远距离获取目标对象唇部区域的多源图像信息,通过机器学习和深度学习算法进行多源融合的唇部特征提取与建模,并使用语言模型进行文本合成和输出。这种唇语识别的数据获取与处理系统为复杂光照环境、远距离和特殊应用场合提供了更加安全可靠的信息获取与交互方式。弥补了单一视频数据来源特征提取和唇部图像识别的局限性,通过多源数据特征融合建模极大地提高了唇语识别的准确性。拓展了唇语识别技术的应用范围和场景,为唇语识别技术的发展提供了新的方向。

以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号