首页> 中国专利> 一种基于深度学习的彩色眼底图像青光眼筛查方法及系统

一种基于深度学习的彩色眼底图像青光眼筛查方法及系统

摘要

本发明提供了一种彩色眼底图像青光眼筛查方法及系统,包括:步骤M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;步骤M2:对采集到的彩色眼底图像数据进行预处理;步骤M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;步骤M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。本发明采用了数据增强和半监督方法学习,提高模型的稳定性,降低算法对标注数据的需求。

著录项

  • 公开/公告号CN112288720A

    专利类型发明专利

  • 公开/公告日2021-01-29

    原文格式PDF

  • 申请/专利权人 苏州体素信息科技有限公司;

    申请/专利号CN202011181380.5

  • 发明设计人 石文秀;党康;丁晓伟;张政;

    申请日2020-10-29

  • 分类号G06T7/00(20170101);G06T7/11(20170101);G06T5/00(20060101);G06K9/62(20060101);G06N3/04(20060101);G06N3/08(20060101);

  • 代理机构31334 上海段和段律师事务所;

  • 代理人李佳俊;郭国中

  • 地址 215600 江苏省苏州市张家港市保税区华达路36号新兴产业育成中心A栋217室

  • 入库时间 2023-06-19 09:43:16

说明书

技术领域

本发明涉及医学影像领域,具体地,涉及一种基于深度学习的彩色眼底图像青光眼筛查方法及系统,更为具体地,涉及一种基于空间转换和半监督学习的彩色眼底图像青光眼筛查方法及系统。尤其涉及基于空间转换的彩色眼底视盘视杯分割网络和基于低标注数据的半监督训练方式,以提高视盘视杯分割精度和模型的稳定性。

背景技术

青光眼是一种导致视神经进行性、特征性损伤的疾病,具有高患病率及高致盲率的特点,是我国乃至全球第一位的不可逆致盲性眼病。早期的诊断和治疗对于提高青光眼患者生活质量至关重要,早期确诊的患者通过合理治疗,绝大部分可以终生保有视功能。然而目前青光眼筛查中存在缺乏早期发现的有效手段、不典型及复杂性青光眼诊断难度大、随诊困难等问题;传统意义上的医疗资源配置调整、病因学研究投入增加等策略难以改变现状;而且青光眼诊断仍然存在医生主观因素影响,特别是在早期青光眼检测中;同时我国医疗资源分布差距明显,基层医院对青光眼诊疗水平不理想且诊治水平差异较大。近年来很多高质量的AI算法已成功应用于辅助医学诊断,在基层医院推广普及AI辅助诊断技术可以很好的解决医疗资源分布不均、医师水平差异较大及效率低的问题,尽可能的避免因早期漏诊导致青光眼视功能损害及青光眼致盲的发生。

临床上,检验青光眼的方法主要包括:眼压检测,基于功能的视野检测,视神经头评估等。病理性高眼压是青光眼的普遍症状,而然也有少部分青光眼患者眼压是正常的,而有高眼压患者也不一定患有青光眼,因此眼压检测并不能用来作为诊断青光眼的唯一依据;功能性视野检测需要特定的设备,并且有些青光眼患者在早期并没有视觉上的明显症状;视神经头是一种比较流行的基于临床指标度量的评估方式,如杯盘比等,杯盘比越大,青光眼的风险越高。为了自动筛查青光眼,人们研究了一些基于度量的方法,首先分割出主要的眼底图像结构如视盘和视杯区域,再根据分割结果计算一些度量参数来预测青光眼。然而这些方法依赖于分割精度,而分割精度又容易收到一些因素的干扰。

现有技术中,由于深度学习十分依赖大量的标注数据,相比自然图像,利用深度学习进行医学图像分割任务的一大障碍源于分割标注难以获得,且标注质量难以控制。在眼底图像视盘视杯分割任务中,眼底病变复杂,种类繁多,视盘区域病变严重影响视盘视杯的标注,尤其是视杯的标注,依赖标注医生主观性经验性地判断。

Fu等人[1]提出了一种青光眼筛查神经网络,首先对全局级眼底图像进行视盘分割,根据视盘分割结果剪裁视盘区域,将剪裁后的视盘区域和极坐标转换后的视盘区域分别输入到青光眼的分类网络中,从而进行青光眼筛查。然而,分类网络的可解释性相对较差,不能满足临床上提供杯盘比等量化参数的需求。

Fu等人[2]提出的基于极坐标转换的视杯视盘分割方法,该方法主要研究的是剪裁后的视盘区域经过极坐标转换后的分割模型,然而该方法对于数据质量和视盘区域定位的准确性的要求比较高,对于视盘区域有严重病变的数据,视盘区域的精准定位和剪裁比较困难,并且单一的视盘区域极坐标转换后的分割模型,极坐标转换分割后,在θ为0度和360度位置附近经过极坐标反变换后可能出现不连续的问题。针对这些问题,本专利采用了multi stream联合训练的方法融合了全局特征和局部特征/极坐标空间特征和笛卡尔空间特征,提高分割准确性。

[1]Fu,Huazhu,et al."Joint Optic Disc and Cup Segmentation Based onMulti-label Deep Network and Polar Transformat ion."IEEE Transactions onMedical Imaging(2018)

[2]Fu,Huazhu,et al."Disc-aware Ensemble Network for GlaucomaScreening from Fundus Image."IEEE Transactions on Medical Imaging(2018):1-1

专利文献CN106214120A(申请号:201610689336.2)公开了一种青光眼的早期筛查方法,利用计算机对眼底照片进行全自动分析,快速实时计算出视杯与视盘的杯盘比C/D比值,其特征在于,将杯盘比与设定的青光眼风险值对比判断是否存在青光眼的可能性。本发明的优点:以青光眼病变中视神经进行性损伤产生杯盘比变化为基础,实现计算机辅助下全自动眼底照片阅片分析。

发明内容

针对现有技术中的缺陷,本发明的目的是提供一种彩色眼底图像青光眼筛查方法及系统。

根据本发明提供的一种彩色眼底图像青光眼筛查方法,包括:如图1至图5所示,步骤M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;

步骤M2:对采集到的彩色眼底图像数据进行预处理;

步骤M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;

步骤M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。

优选地,所述步骤M1包括:

步骤M1.1:采集不同年龄段的青光眼和非青光眼的眼底病变图像;

步骤M1.2:将采集到的眼底病变图像进行部分标注,标注为训练数据和测试数据;未标注的眼底病变图像大于等于标注的眼底病变图像。

优选地,所述步骤M2包括:

步骤M2.1:对采集到的彩色眼底图像数据进行掩膜处理,得到掩膜处理后的图像数据;

步骤M2.2:对掩膜处理后的图像数据进行数据增强处理,得到数据增强后的图像数据;

步骤M2.3:对数据增强后的图像数据进行归一化处理。

优选地,所述步骤M3中卷积神经网络如图2所示包括:分割网络;所述分割网络包括分割网络S1、分割网络S2和分割网络S3;

所述分割网络获取眼底病变图像内容,提取眼底病变图像中的视盘视杯结构特征并进行分割;

所述分割网络S1获取整个眼底病变图像的全局信息,并对视盘视杯进行定位,根据视盘视杯定位结果裁剪视盘视杯区域;

所述分割网络S2和分割网络S3根据视盘视杯区域获得局部视盘视杯区域。

经过预处理后的彩色眼底图像数据流resize到512*512全局输入到分割网络S1中,生成视盘视杯概率图定位视盘视杯区域,剪裁原始分辨率的数据流和标签Mask以获得更高分辨率的局部细节信息;剪裁后的局部数据流分为两种,一种resize到512*512输入到分割网络S2中,生成局部视盘视杯概率图,另一种则经过极坐标转换,resize到512*512输入到分割网络S3中,生成极坐标空间的局部视盘视杯概率图,再经过极坐标反变换反变换到笛卡尔空间。损失函数Lose分别由S1输出的损失LS1,S2网络输出的损失LS2和S3网络输出的损失LS3组成。

优选地,所述步骤M3包括:

步骤M3.1:使用带有标签的训练数据训练分割网络S1,直至Dice损失函数收敛,得到训练后的分割网络S1;

步骤M3.2:冻结训练后的分割网络S1权重参数,训练分割网络S2和分割网络S3,直至相应的交叉熵损失函数Loss1收敛,得到训练后的分割网络S2和分割网络S3;

步骤M3.3:解冻训练后的分割网络S1权重参数,根据Dice损失函数和分割网络S2和分割网络S3相应的交叉熵损失函数计算得到卷积神经网络损失函数Loss2;训练卷积神经网络,直至卷积神经网络损失函数收敛,得到训练后的卷积神经网络;

步骤M3.4:使用训练后的卷积神经网络预测无标签的数据,加权融合分割网络S2的局部视盘视杯概率图和分割网络S3反变换坐标系下的局部视盘视杯概率图,生成标注作为无标注数据的伪标注;

步骤M3.5:根据预设规则过滤置信度不符合预设要求的图像;

步骤M3.6:使用带有标签的训练数据和生成伪标注的数据训练卷积神经网络,重复执行步骤M3.4至步骤M3.6,直至卷积神经网络损失函数收敛。

优选地,所述步骤M4包括:

步骤M4.1:眼底病变图像通过训练后的分割网络S1得到初步分割结果;

步骤M4.2:利用初步分割结果定位和裁剪眼底病变图像中的视盘视杯区域;

步骤M4.3:将视盘视杯区域输入分割网络S2,生成局部视盘视杯概率图;

步骤M4.4:将视盘视杯区域经过空间变换得到变换后坐标系下的图像,将变换后坐标系下的图像输入分割网络S3,生成变化后坐标系下的局部视盘视杯概率图;将变换后坐标系下的局部视盘视杯概率图再进行空间变换的反变换,得到反变换坐标系下的局部视盘视杯概率图;

步骤M4.5:将分割网络S2生成的局部视盘视杯概率图与分割网络S3生成的反变换坐标系下的局部视盘视杯概率图进行融合,得到融合后的局部视盘视杯概率图;

步骤M4.6:根据融合后的局部视盘视杯概率图计算垂直杯盘比、面积的开方之比、颞侧盘沿宽度与鼻侧盘沿宽度之比。

优选地,所述步骤M4.4包括:将视盘视杯区域经过极坐标变换得到极坐标变化后的图像,将极坐标变换后的图像输入分割网络S3生成极坐标空间的局部视盘视杯概率图,将极坐标空间的局部视盘视杯概率图再转换为笛卡尔坐标系的局部视盘视杯概率图。

如图3所示,左:原始彩色眼底图像,经过提取掩膜去除多余黑边背景(即外矩形框外为多余背景);中:以视盘中心为中心,3个视盘竖径为直径的剪裁后视盘区域;右:以视盘中心为圆心,1.5个视盘竖径为最大半径,对剪裁后的视盘区域进行极坐标变换,得到极坐标系下的眼底图像。如图所示笛卡尔坐标系下的点P,经过空间转换后对应在极坐标系下的点P’。

如图4所示,其中,mask图像中黑色部分为背景区域,灰色部分为视盘区域,白色部分为视杯区域。a为整张彩色眼底图像;b为a对应的视盘视杯mask,依据该mask可以定位视盘视杯区域,从而剪裁原始尺寸的眼底图像得到剪裁后的视盘视杯区域图像c,d为c对应的视盘视杯区域mask;c和d经过极坐标变换分别得到极坐标变换后的图像e和对应的mask d.

优选地,所述Dice损失函数包括:

其中,K表示视盘视杯标签类别数,i表示像素第i个像素;N表示像素数;

所述相应的交叉熵损失函数Loss1包括:

Loss1=αL

其中,α,β表示权重系数,且α+β=1;

所述卷积神经网络损失函数Loss2包括:

Loss2=w

其中,L2表示权重衰减正化,为了避免参数数值过大而导致过拟合;p

根据本发明提供的一种彩色眼底图像青光眼筛查系统,包括:

模块M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;

模块M2:对采集到的彩色眼底图像数据进行预处理;

模块M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;

模块M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。

优选地,所述模块M1包括:

模块M1.1:采集不同年龄段的青光眼和非青光眼的眼底病变图像;

模块M1.2:将采集到的眼底病变图像进行部分标注,标注为训练数据和测试数据;未标注的眼底病变图像大于等于标注的眼底病变图像;

所述模块M2包括:

模块M2.1:对采集到的彩色眼底图像数据进行掩膜处理,得到掩膜处理后的图像数据;

模块M2.2:对掩膜处理后的图像数据进行数据增强处理,得到数据增强后的图像数据;

模块M2.3:对数据增强后的图像数据进行归一化处理;

所述模块M3中卷积神经网络包括:分割网络;所述分割网络包括分割网络S1、分割网络S2和分割网络S3;

所述分割网络获取眼底病变图像内容,提取眼底病变图像中的视盘视杯结构特征并进行分割;

所述分割网络S1获取整个眼底病变图像的全局信息,并对视盘视杯进行定位,根据视盘视杯定位结果裁剪视盘视杯区域;

所述分割网络S2和分割网络S3根据视盘视杯区域获得局部视盘视杯区域;

所述模块M3包括:

模块M3.1:使用带有标签的训练数据训练分割网络S1,直至Dice损失函数收敛,得到训练后的分割网络S1;

模块M3.2:冻结训练后的分割网络S1权重参数,训练分割网络S2和分割网络S3,直至相应的交叉熵损失函数Loss1收敛,得到训练后的分割网络S2和分割网络S3;

模块M3.3:解冻训练后的分割网络S1权重参数,根据Dice损失函数和分割网络S2和分割网络S3相应的交叉熵损失函数计算得到卷积神经网络损失函数Loss2;训练卷积神经网络,直至卷积神经网络损失函数收敛,得到训练后的卷积神经网络;

模块M3.4:使用训练后的卷积神经网络预测无标签的数据,加权融合分割网络S2的局部视盘视杯概率图和分割网络S3反变换坐标系下的局部视盘视杯概率图,生成标注作为无标注数据的伪标注;

模块M3.5:根据预设规则过滤置信度不符合预设要求的图像;

模块M3.6:使用带有标签的训练数据和生成伪标注的数据训练卷积神经网络,重复触发模块M3.4至模块M3.6执行,直至卷积神经网络损失函数收敛;

所述模块M4包括:

模块M4.1:眼底病变图像通过训练后的分割网络S1得到初步分割结果;

模块M4.2:利用初步分割结果定位和裁剪眼底病变图像中的视盘视杯区域;

模块M4.3:将视盘视杯区域输入分割网络S2,生成局部视盘视杯概率图;

模块M4.4:将视盘视杯区域经过空间变换得到变换后坐标系下的图像,将变换后坐标系下的图像输入分割网络S3,生成变化后坐标系下的局部视盘视杯概率图;将变换后坐标系下的局部视盘视杯概率图再进行空间变换的反变换,得到反变换坐标系下的局部视盘视杯概率图;

模块M4.5:将分割网络S2生成的局部视盘视杯概率图与分割网络S3生成的反变换坐标系下的局部视盘视杯概率图进行融合,得到融合后的局部视盘视杯概率图;

模块M4.6:根据融合后的局部视盘视杯概率图计算垂直杯盘比、面积的开方之比、颞侧盘沿宽度与鼻侧盘沿宽度之比;

所述模块M4.4包括:将视盘视杯区域经过极坐标变换得到极坐标变化后的图像,将极坐标变换后的图像输入分割网络S3生成极坐标空间的局部视盘视杯概率图,将极坐标空间的局部视盘视杯概率图再转换为笛卡尔坐标系的局部视盘视杯概率图。

与现有技术相比,本发明具有如下的有益效果:

1、本发明采用了数据增强和半监督方法学习,提高模型的稳定性,降低算法对标注数据的需求;

2、本发明采用空间转换,使视盘视杯的空间关系更容易表达,分割准确率更高;

3、本发明采用全局特征和局部特征融合/极坐标空间和笛卡尔空间融合的multi-stream网络结构,提高模型分割准确率和可视化效果;

4、本发明通过先验规则来过滤置信度低的伪mask图像,提高了半监督训练过程中模型的稳定性和分割准确度。

附图说明

通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:

图1为彩色眼底图像竖径杯盘比示意图;

图2为眼底视盘视杯分割卷积神经网络架构图;

图3为彩色眼底图像空间变换图;

图4为彩色眼底图像和对应的视盘视杯标注;

图5为半监督学习训练流程图。

具体实施方式

下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。

根据本发明提供的一种彩色眼底图像青光眼筛查方法,包括:

步骤M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;

步骤M2:对采集到的彩色眼底图像数据进行预处理;

步骤M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;

步骤M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。

具体地,所述步骤M1包括:

步骤M1.1:采集不同年龄段的青光眼和非青光眼的眼底病变图像;

步骤M1.2:将采集到的眼底病变图像进行部分标注,标注为训练数据和测试数据;未标注的眼底病变图像大于等于标注的眼底病变图像。

具体地,所述步骤M2包括:

步骤M2.1:对采集到的彩色眼底图像数据进行掩膜处理,得到掩膜处理后的图像数据;

步骤M2.2:对掩膜处理后的图像数据进行数据增强处理,得到数据增强后的图像数据;

步骤M2.3:对数据增强后的图像数据进行归一化处理。

具体地,所述步骤M3中卷积神经网络包括:分割网络;所述分割网络包括分割网络S1、分割网络S2和分割网络S3;

所述分割网络获取眼底病变图像内容,提取眼底病变图像中的视盘视杯结构特征并进行分割;

所述分割网络S1获取整个眼底病变图像的全局信息,并对视盘视杯进行定位,根据视盘视杯定位结果裁剪视盘视杯区域;

所述分割网络S2和分割网络S3根据视盘视杯区域获得局部视盘视杯区域。

具体地,所述步骤M3包括:

步骤M3.1:使用带有标签的训练数据训练分割网络S1,直至Dice损失函数收敛,得到训练后的分割网络S1;

步骤M3.2:冻结训练后的分割网络S1权重参数,训练分割网络S2和分割网络S3,直至相应的交叉熵损失函数Loss1收敛,得到训练后的分割网络S2和分割网络S3;

步骤M3.3:解冻训练后的分割网络S1权重参数,根据Dice损失函数和分割网络S2和分割网络S3相应的交叉熵损失函数计算得到卷积神经网络损失函数Loss2;训练卷积神经网络,直至卷积神经网络损失函数收敛,得到训练后的卷积神经网络;

步骤M3.4:使用训练后的卷积神经网络预测无标签的数据,加权融合分割网络S2的局部视盘视杯概率图和分割网络S3反变换坐标系下的局部视盘视杯概率图,生成标注作为无标注数据的伪标注;

步骤M3.5:根据预设规则过滤置信度不符合预设要求的图像;

步骤M3.6:使用带有标签的训练数据和生成伪标注的数据训练卷积神经网络,重复执行步骤M3.4至步骤M3.6,直至卷积神经网络损失函数收敛。

具体地,所述步骤M4包括:

步骤M4.1:眼底病变图像通过训练后的分割网络S1得到初步分割结果;

步骤M4.2:利用初步分割结果定位和裁剪眼底病变图像中的视盘视杯区域;

步骤M4.3:将视盘视杯区域输入分割网络S2,生成局部视盘视杯概率图;

步骤M4.4:将视盘视杯区域经过空间变换得到变换后坐标系下的图像,将变换后坐标系下的图像输入分割网络S3,生成变化后坐标系下的局部视盘视杯概率图;将变换后坐标系下的局部视盘视杯概率图再进行空间变换的反变换,得到反变换坐标系下的局部视盘视杯概率图;

步骤M4.5:将分割网络S2生成的局部视盘视杯概率图与分割网络S3生成的反变换坐标系下的局部视盘视杯概率图进行融合,得到融合后的局部视盘视杯概率图;

步骤M4.6:根据融合后的局部视盘视杯概率图计算垂直杯盘比、面积的开方之比、颞侧盘沿宽度与鼻侧盘沿宽度之比。

具体地,所述步骤M4.4包括:将视盘视杯区域经过极坐标变换得到极坐标变化后的图像,将极坐标变换后的图像输入分割网络S3生成极坐标空间的局部视盘视杯概率图,将极坐标空间的局部视盘视杯概率图再转换为笛卡尔坐标系的局部视盘视杯概率图。

具体地,所述Dice损失函数包括:

其中,K表示视盘视杯标签类别数,i表示像素第i个像素;N表示像素数;

所述相应的交叉熵损失函数Loss1包括:

Loss1=αL

其中,α,β表示权重系数,且α+β=1;

所述卷积神经网络损失函数Loss2包括:

Loss2=w

其中,L2表示权重衰减正化,为了避免参数数值过大而导致过拟合;p

根据本发明提供的一种彩色眼底图像青光眼筛查系统,包括:

模块M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;

模块M2:对采集到的彩色眼底图像数据进行预处理;

模块M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;

模块M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。

具体地,所述模块M1包括:

模块M1.1:采集不同年龄段的青光眼和非青光眼的眼底病变图像;

模块M1.2:将采集到的眼底病变图像进行部分标注,标注为训练数据和测试数据;未标注的眼底病变图像大于等于标注的眼底病变图像;

所述模块M2包括:

模块M2.1:对采集到的彩色眼底图像数据进行掩膜处理,得到掩膜处理后的图像数据;

模块M2.2:对掩膜处理后的图像数据进行数据增强处理,得到数据增强后的图像数据;

模块M2.3:对数据增强后的图像数据进行归一化处理;

所述模块M3中卷积神经网络包括:分割网络;所述分割网络包括分割网络S1、分割网络S2和分割网络S3;

所述分割网络获取眼底病变图像内容,提取眼底病变图像中的视盘视杯结构特征并进行分割;

所述分割网络S1获取整个眼底病变图像的全局信息,并对视盘视杯进行定位,根据视盘视杯定位结果裁剪视盘视杯区域;

所述分割网络S2和分割网络S3根据视盘视杯区域获得局部视盘视杯区域;

所述模块M3包括:

模块M3.1:使用带有标签的训练数据训练分割网络S1,直至Dice损失函数收敛,得到训练后的分割网络S1;

模块M3.2:冻结训练后的分割网络S1权重参数,训练分割网络S2和分割网络S3,直至相应的交叉熵损失函数Loss1收敛,得到训练后的分割网络S2和分割网络S3;

模块M3.3:解冻训练后的分割网络S1权重参数,根据Dice损失函数和分割网络S2和分割网络S3相应的交叉熵损失函数计算得到卷积神经网络损失函数Loss2;训练卷积神经网络,直至卷积神经网络损失函数收敛,得到训练后的卷积神经网络;

模块M3.4:使用训练后的卷积神经网络预测无标签的数据,加权融合分割网络S2的局部视盘视杯概率图和分割网络S3反变换坐标系下的局部视盘视杯概率图,生成标注作为无标注数据的伪标注;

模块M3.5:根据预设规则过滤置信度不符合预设要求的图像;

模块M3.6:使用带有标签的训练数据和生成伪标注的数据训练卷积神经网络,重复触发模块M3.4至模块M3.6执行,直至卷积神经网络损失函数收敛;

所述模块M4包括:

模块M4.1:眼底病变图像通过训练后的分割网络S1得到初步分割结果;

模块M4.2:利用初步分割结果定位和裁剪眼底病变图像中的视盘视杯区域;

模块M4.3:将视盘视杯区域输入分割网络S2,生成局部视盘视杯概率图;

模块M4.4:将视盘视杯区域经过空间变换得到变换后坐标系下的图像,将变换后坐标系下的图像输入分割网络S3,生成变化后坐标系下的局部视盘视杯概率图;将变换后坐标系下的局部视盘视杯概率图再进行空间变换的反变换,得到反变换坐标系下的局部视盘视杯概率图;

模块M4.5:将分割网络S2生成的局部视盘视杯概率图与分割网络S3生成的反变换坐标系下的局部视盘视杯概率图进行融合,得到融合后的局部视盘视杯概率图;

模块M4.6:根据融合后的局部视盘视杯概率图计算垂直杯盘比、面积的开方之比、颞侧盘沿宽度与鼻侧盘沿宽度之比;

所述模块M4.4包括:将视盘视杯区域经过极坐标变换得到极坐标变化后的图像,将极坐标变换后的图像输入分割网络S3生成极坐标空间的局部视盘视杯概率图,将极坐标空间的局部视盘视杯概率图再转换为笛卡尔坐标系的局部视盘视杯概率图。

实施例2是实施例1的变化例

根据本发明提供的一种基于空间转换和半监督学习的彩色眼底图像青光眼筛查方法,包括:

1).数据采集及标注:采集不同来源的彩色眼底图像,包括不同年龄段的青光眼和其他非青光眼的眼底病变图像,由专业医生标注部分训练数据和测试数据,未标注的数据量大于等于标注的数据量。

2).数据预处理:由于数据集拍摄情况不同,数据集样本之间情况需要对数据集中的图像进行预处理。首先进行掩膜处理,根据每张眼底图像的背景色度和中心色度,采用阈值处理和形态学腐蚀膨胀等操作提取掩膜,去除非眼底区域的黑边或白边的多余背景。采用图像反转,旋转,缩放,高斯模糊,运动模糊,随机亮度调整等操作对原始数据进行数据增强处理,增加训练数据的数量来提高训练效果,并对图像进行归一化处理,使模型的训练更为稳定。

3).视盘视杯分割网络:通过预处理后的数据训练卷积神经网络,以深度学习卷积神经网络分割眼底图像中的视盘视杯区域,从而根据分割结果判断青光眼。深度卷积神经网络的架构如图所示,主要包括几个部分:

(1)分割网络结构:

主要包括三个编码解码结构(S1,S2,S3),S1获取整个眼底图像的全局信息,并对视盘视杯进行定位,根据视盘视杯定位结果,剪裁视盘区域,通过S2和S3获取更多的图像细节信息,将全局和局部区域的上下文结合起来。编码部分主要用于获取图像内容,提取眼底图像中的视盘视杯结构特征,解码部分主要用于精确分割。本发明中,编码解码结构包括但不限于在生物医学图像分割领域应用十分广泛的Unet网络。

在本发明的实施例中,S1主要采用U型的U-Net网络,编码部分是一个下采样过程,由5个编码层组成,每个编码层先做一组卷积层的运算,生成一个特征编码图的集合,再进行ReLU激活函数的运算,编码层之间通过最大池化进行下采样。解码部分与编码部分相似,同样用卷积层来输出解码的特征图,解码层之间通过反卷积进行上采样。编码层和解码层之间通过跳跃连接将特征图从编码层传递到对应的上采样解码层。最后用一个1*1的带softmax激活函数的卷积层来进行一个像素级的分类,生成视盘视杯区域的概率图。S1输入数据流的图像尺寸是512*512。根据S1输出的视盘视杯区域概率图,定位视盘视杯区域,计算视盘竖径,剪裁原始分辨率的数据,获得更高分辨率的局部细节信息。为了更好的提取局部视盘区域的描述,本专利采用了2种局部数据流,第一种S2是标准的分割网络,另一种S3则经过视盘区域的空间变换。在本实例中,基于视盘视杯的空间结构关系,采用极坐标变换,将在笛卡尔坐标系下较难表达的空间关系转换为在极坐标下的图层结构。S2和S3采用与U-Net结构相似的Nested U-Net网络以捕捉更多的细节信息。S2和S3的编码部分同样由5个编码层组成,与S1不同的是重新设计的跳跃连接,重新设计的跳跃连接经历了密集的卷积块,抓取不同层次的特征图通过叠加的方式整合,使编码器特征图的语义级别更接近解码器中特征图的语义级别。S2和S3输入数据流的图像尺寸均是512*512。S3输出的概率图进行空间变换的反变换后与S2输出的概率图融合。

(2)空间变换和反变换:

眼底图像中,视杯位于视盘之内,这种空间关系较难在笛卡尔坐标之内表达,通过像素级的极坐标转换和插值,呈现有序的层结构,并且通过插值扩大了视杯区域在图像中所占比例,有助于避免模型训练期间的过度拟合。而且由于这种空间转换是逐像素映射,因此数据增强在这种空间转换中是等效的。

根据以视盘中心为圆心,1倍视盘直径为最大半径进行极坐标转换和反变换,如公式1所示,(u,v)表示直角坐标,(r,θ)表示极坐标,(u0,v0)表示笛卡尔坐标系下视盘中心的坐标。

本发明利用pytorch改进了opencv自带的极坐标变换和反变换功能,使得极坐标变换的速度提高了5倍,支持多种插值方式,支持在GPU上运行。

(3)损失函数:

全局级的网络S1主要用于视盘定位,使用Dice系数作为损失函数(Dice Loss),其描述为:

其中,K表示视盘视杯标签类别数,在本发明中,视盘视杯类别包括:背景,视盘,视杯,因此K=3,i表示像素第i个像素,N表示,

在S2和S3中,对模型分割的精度要求更高,使用交叉熵函数计算损失(CE Loss),分别用L

联合L

Loss2=w

其中,L2为权重衰减正化,其作用是为了避免参数数值过大而导致过拟合,p

4).半监督模型训练:由于医学数据量较大,而人工标注耗时耗力成本昂贵,还可能存在主观意识产生的误差,因此,本专利采用自训练的半监督方法训练模型,利用大量无标签样本增大数据量,降低算法对人工标注的需求。训练过程如下所示:

(1)首先,使用带有标签的训练数据训练分割模型,由于S1的分割结果对S2和S3的数据流影响较大,因此该过程分阶段训练分割网络,首先通过Dice损失函数来训练全局级的分割网络S1,再冻结S1的权重参数训练S2和S3,Loss收敛后再整体训练所有的网络参数。

(2)使用训练好的网络预测无标注的数据,加权融合S2的输出概率图和S3极坐标反变换后的输出概率图,生成mask作为无标注数据的伪mask(标注)。

(3)设置规则如视盘视杯的空间约束等来过滤置信度不高的图像

(4)使用带有标签的训练数据和生成了伪mask的数据一起训练S1,S2,S3网络

(5)重复步骤2),3),4)直到满足条件

模型训练过程中,使用Adam优化算法来不断改进学习分割网络架构中的每一层参数,并采用稳定期减小学习率策略,动态调整学习率。

5).杯盘比计算:在眼底图像中,视盘是进入视网膜输出血管的入口,位于视网膜的中央,外观多是黄色的圆形,有较为明显清晰的边缘。视杯是位于视盘上的明亮中央凹陷,其尺寸可变,是用于诊断青光眼的重要参数。正常的视盘,盘沿宽度遵循“ISNT”原则,即盘沿的宽度通常在下方(I)最宽,上方(S)次之,鼻侧(N)较窄,颞侧(T)最窄,青光眼患者的视盘,可以出现进行性的盘沿变窄丢失,尤其是颞上/颞下处,出现视杯的凹陷切迹,继而视杯扩大。根据分割模型分割结果,计算垂直杯盘比/面积的开方之比/颞侧盘沿宽度与鼻侧盘沿宽度之比。

6).青光眼预测:参照青光眼视神经损害的远程筛查标准(征求意见稿)(2015年),对青光眼相关眼底异常的判断依据以下表现:

垂直杯盘比>0.6

双眼垂直杯盘比相差>0.2

视杯视盘的面积开方之比>0.6

颞侧盘沿窄于鼻侧盘沿

根据杯盘比计算结果,如果以上依据都没有出现,则判定为未见可疑青光眼视神经损伤,但并不意味着患者一定不存在青光眼,也可能有原发性先天性青光眼早期或高眼压症等等,需要结合更多检查进行确定。如果杯盘比计算出现上述任意一条,则初步判定为可疑青光眼神经损伤,应转眼科就诊。

本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。

以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号