您现在的位置: 首页> 研究主题> 深度可分离卷积

深度可分离卷积

深度可分离卷积的相关文献在2018年到2023年内共计331篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、机械、仪表工业 等领域,其中期刊论文277篇、专利文献311682篇;相关期刊140种,包括科学技术与工程、中国图象图形学报、现代电子技术等; 深度可分离卷积的相关文献由1129位作者贡献,包括何小海、张强、李乐豪等。

深度可分离卷积—发文量

期刊论文>

论文:277 占比:0.09%

专利文献>

论文:311682 占比:99.91%

总计:311959篇

深度可分离卷积—发文趋势图

深度可分离卷积

-研究学者

  • 何小海
  • 张强
  • 李乐豪
  • 李晴
  • 杨绍普
  • 王正勇
  • 赵志宏
  • 魏小鹏
  • 万川
  • 万浪
  • 期刊论文
  • 专利文献

搜索

排序:

年份

    • 胡坤; 陈迟晓; 李伟; 甘中学
    • 摘要: 目前大量被提出的关于单目视觉深度估计网络研究中其网络结构庞大臃肿,在实际部署中会存在占用大、延迟高的问题.针对以上问题,本文提出了基于可学习步长的量化策略的轻量化深度估计网络.该网络采取特征金字塔(FPN)的网络结构对图片不同尺度的特征信息进行提取.并结合内存优化,对网络的特征提取部分采用深度可分离卷积,使得网络相对于ResNet参数总量下降1/3.同时文中对特征解码器进行设计,网络计算中跳跃连接传递的参数量对比ResNet下降了68.61%.本文的轻量化深度估计网络参数位宽由32比特降至3比特.实验结果表明,轻量化后的深度估计网络的网络参数大小下降90.59%,在KITTI数据集上绝对相对误差为16.0%,最终轻量化的网络大小从34.12MB下降到了3.21MB.
    • 冯小予; 邵慧翔; 张之江
    • 摘要: 在智慧园区内普遍存在取代传统人力搬运货物的AGV小车,虽然AGV具备自主导航、定位能力,但是由于天气、机器故障等突发不可控因素的影响,在园区场景中通过摄像头对AGV进行实时监控和定位成为一项亟需解决的任务,该任务的技术难点在于如何构建同时满足检测精度和实时性需求的轻量型网络。为了解决这些难点,针对该特定场景提出了具有代表性的自动导航小车数据集,并且提出了轻量型改进YOLOv3;的园区AGV检测算法,在自动导航小车数据集上进行验证,所提出模型在参数量大大缩减的同时,仍实现检测精度为100%的优越性能。
    • 柳长源; 何先平; 毕晓君
    • 摘要: 为了解决现有的车型识别算法对车型特征描述不充分的情况,提出融合注意力机制的高效率网络车型识别算法.利用高效率网络中的复合缩放方式来平衡网络的深度、宽度和分辨率,将深度可分离卷积集成到基础特征提取模块中来提高模型准确率.增加双通道的残差注意力机制来关注图片中的关键信息,获得含有更加丰富语义信息的特征图.在网络的末端添加单独的softmax分类器,使用标签平滑正则化对损失函数进行处理,减小模型过拟合的问题.在BIT-Vehicles数据集上进行实验,结果表明,提出方法的平均分类准确率为96.83%,较改进前的模型提高了1.11%,优于现有DCNN、Faster-CNN的改进算法,较Faster R-CNN提升了7.16%.
    • 耿硕; 李云栋
    • 摘要: 铁路异物侵限检测技术在视频监控中起着重大作用,而现有的目标检测网络计算成本高,模型存储大,因为硬件成本和计算力存在矛盾,所以导致检测速度不高等问题。针对上述问题,选取YOLOv4 tiny作为基础网络并进行了改进。首先,在CSP Darknet53 tiny中,利用深度可分离卷积替换部分标准卷积,减少了参数数量和计算量;其次,将训练后权重进行转换,使得转换后权重可被Tensor RT优化推理器推理加速;然后,引入合并运算和半精度量化处理;最后,将TensorRT-yolov4 tiny部署至嵌入式设备Jeston nano上。实验表明,在2555张铁路数据集上进行实验,其检测速度提升了50%,达到了平均0.036一张检测图片,帧率达到了30.12。MAP达到了82.13%。证明了提出的方法的在部署至嵌入式设备后速度性能上具有的优越性。
    • 朱傥; 杨忠; 周国兴; 张驰; 韩家明
    • 摘要: 针对算力有限的移动和嵌入式平台,提出了一种基于深度学习的轻量化火焰烟雾检测算法。利用数据增强来解决数据量较少的问题,使用one-stage目标检测方法中的YOLOv4作为火焰烟雾检测的模型框架,采用轻量化神经网络MobileNetV3替换YOLOv4的原主干特征提取网络,减少了模型参数量;再采用深度可分离卷积替换掉YOLOv4中的标准卷积块,进一步在加强特征提取网络和预测层减少了参数量;最后对空间金字塔池化部分进行改进,减少背景干扰带来的影响,减少最大池化导致的部分有用特征信息丢失。在该数据集上通过与原网络模型和其他主流目标检测方法进行对比分析,结果表明提出的轻量化网络不但保留了原模型精度,还大大减小了网络的训练参数量,提高了运行速度,更有利于模型搭载在摄像头等嵌入式设备上,实现火焰和烟雾的实时检测。
    • 褚堃; 万良; 马丹; 张志宁
    • 摘要: 传统机器学习在恶意软件分析上需要复杂的特征工程,不适用于大规模的恶意软件分析。为提高在Android恶意软件上的检测效率,将Android恶意软件字节码文件映射成灰阶图像,综合利用深度可分离卷积(depthwise separable convolution,DSC)和注意力机制提出基于全局注意力模块(GCBAM)的Android恶意软件分类模型。从APK文件中提取字节码文件,将字节码文件转换为对应的灰阶图像,通过构建基于GCBAM的分类模型对图像数据集进行训练,使其具有Android恶意软件分类能力。实验表明,该模型对Android恶意软件家族能有效分类,在获取的7630个样本上,分类准确率达到98.91%,相比机器学习算法在准确率、召回率等均具有较优效果。
    • 孙刘杰; 张煜森; 王文举; 赵进
    • 摘要: 目的针对卷积神经网络在RGB-D(彩色-深度)图像中进行语义分割任务时模型参数量大且分割精度不高的问题,提出一种融合高效通道注意力机制的轻量级语义分割网络。方法文中网络基于RefineNet,利用深度可分离卷积(Depthwiseseparableconvolution)来轻量化网络模型,并在编码网络和解码网络中分别融合高效的通道注意力机制。首先RGB-D图像通过带有通道注意力机制的编码器网络,分别对RGB图像和深度图像进行特征提取;然后经过融合模块将2种特征进行多维度融合;最后融合特征经过轻量化的解码器网络得到分割结果,并与RefineNet等6种网络的分割结果进行对比分析。结果对提出的算法在语义分割网络常用公开数据集上进行了实验,实验结果显示文中网络模型参数为90.41 MB,且平均交并比(mIoU)比RefineNet网络提高了1.7%,达到了45.3%。结论实验结果表明,文中网络在参数量大幅减少的情况下还能提高了语义分割精度。
    • 黄禹康; 熊凌; 刘洋; 邓攀; 但斌斌
    • 摘要: 针对传统U-Net网络模型参数量大、图片处理时间长、无法满足工业生产实时性要求的问题,提出了一种改进U-Net网络的吹氩图像分割方法。该方法以U-Net框架为主体,使用传统U-Net网络的特征融合模块高效利用图像的特征信息,利用MoblieNet网络中的深度可分离卷积方法替代传统卷积,降低网络的参数量和计算量,缩短了分割所需的时间。实验结果表明,改进的U-Net网络在保持精度的同时,具有良好的实时性。与传统U-Net网络相比,其参数量缩小15倍,在GPU上运行平均耗时降低6倍。改进的U-Net网络处理一张分辨率为224×224像素的图片的平均耗时为30 ms,可以满足工业生产对图像处理实时性的要求。
    • 魏勤; 李瑛娇; 娄平; 严俊伟; 胡辑伟
    • 摘要: 人脸识别被广泛应用于购物、安检、出行、支付和考勤等日常生活中,人脸识别系统需要大的算力与存储空间,因此往往将需要识别的人脸通过网络传送到云平台进行识别,但网络覆盖、拥塞或延时等问题造成人脸识别系统难以满足实际应用的需求,用户体验差。针对人脸识别中存在的问题,提出了基于边云协同的人脸识别方法。该方法结合云计算的处理能力和边缘计算的实时性,使人脸识别系统不受网络状态的约束,应用更加广泛,用户体验更好。在云端,提出了LResNet特征提取方法,改进了ResNet34网络结构,并利用ArcFace人脸损失函数监督训练过程,使网络学习到更多的人脸角度特性;在边缘端,针对计算资源和存储资源有限的问题,提出了SResNet特征提取方法,利用深度可分离卷积轻量化LResNet网络结构,大大减少了网络参数和计算量。边云协同的人脸识别实验表明,所提系统在任何网络状态下都能进行实时识别且准确率较高。
    • 张继成; 李德顺
    • 摘要: 为解决自然状态下成熟草莓存在的背景干扰、信息丢失等问题,提出一种基于深度残差学习的草莓识别方法。首先,引入深度可分离卷积降低残差网络参数,从不同角度提取成熟草莓特征,通过交叉熵损失函数来识别分类层中的草莓。其次,嵌入压缩和激励模块学习特征权重,使用特征重新校准改善网络的学习和表征属性。最后,采用添加空间金字塔池化、加权衰减优化方法提高模型的泛化能力,优化识别结果。试验结果表明,和现有其他深度模型相比,该方法能够有效地定位复杂背景下的成熟草莓,不易受到干扰环境的影响,具有更高的识别准确率和灵敏度,在数据集C中的识别准确率和灵敏度最高,分别达到92.46%和94.28%。
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号