您现在的位置: 首页> 研究主题> 视频摘要

视频摘要

视频摘要的相关文献在2003年到2023年内共计523篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、信息与知识传播 等领域,其中期刊论文142篇、会议论文6篇、专利文献132198篇;相关期刊96种,包括中国图象图形学报、电子设计工程、信号处理等; 相关会议6种,包括2007年北京地区高校研究生学术交流会、第六届全国信息获取与处理学术会议、2007年全国网络与信息安全技术研讨会等;视频摘要的相关文献由971位作者贡献,包括冀中、王海峰、谢毓湘等。

视频摘要—发文量

期刊论文>

论文:142 占比:0.11%

会议论文>

论文:6 占比:0.00%

专利文献>

论文:132198 占比:99.89%

总计:132346篇

视频摘要—发文趋势图

视频摘要

-研究学者

  • 冀中
  • 王海峰
  • 谢毓湘
  • 栾悉道
  • 赵烨
  • 于俊清
  • 刘学亮
  • 李学龙
  • 陈卫东
  • 马亚茹
  • 期刊论文
  • 会议论文
  • 专利文献

搜索

排序:

年份

期刊

    • 李雷霆; 武光利; 郭振洲
    • 摘要: 是通过生成关键帧或片段来达到压缩视频的效果,能够在概括视频主要内容的基础上极大缩短观看时间,在视频快速浏览与检索领域应用广泛。现有方法大多只基于图像内容进行探索,忽略了视频具有时序的特点,且模型对波动数据学习能力较差,导致生成的摘要缺乏时间连贯性和代表性。提出了一个以编码器-解码器为框架的视频摘要网络。具体来说,编码部分由卷积神经网络提取特征,通过自注意力机制提升对关键特征的权重,而解码部分由融合了随机森林的双向长短期记忆网络构成,通过调整随机森林和双向长短期记忆网络在损失函数中所占比例,使模型具有较强的稳定性和预测准确率。实验在两个数据集上与其他七种方法进行了比较,综合实验结果证明了方法的有效性与可行性。提出了自注意力机制和随机森林回归的视频摘要网络,利用自注意力机制完成对特征的优化,将双向长短期记忆网络与随机森林结合,提升模型的稳定性与泛化性,有效降低损失值,使得生成的视频摘要更符合用户视觉特性。
    • 叶晓辉; 杨欣; 李涛
    • 摘要: 充分利用视频的信息以及解码去除冗余信息是视频摘要生成的关键.提出了一种基于多模态语义分组的视频摘要生成模型(VMSG).首先,该模型使用3D ResNet神经网络和残差神经网络来提取3D和2D特征;然后把音频信息与视频的分类信息加入多模态的框架中进行编码,得到多模态的特征之后,需要对其进行解码;为了减少视频帧的冗余信息,不同于按帧分组的解码模式,VMSG使用了一种新颖的语义分组方式进行解码,将相同语义的视频分为一个语义组进行解码,预测下一个单词.实验表明,与当前一些最先进的模型相比,VMSG具有更好的摘要生成性能,其生成的视频摘要更加客观丰富.
    • 牛嘉丰; 石蕴玉; 刘翔; 李任斯
    • 摘要: 视频摘要是监控视频浏览和存储的有效技术。在压缩比的限制下,现有的视频摘要生成方法容易导致重排目标碰撞和时序错乱。针对该问题,文中提出一种融合目标速度变化机制的视频摘要生成模型。在目标重排的能量函数中,除目标起始位置变量之外还加入了目标速度变量,从而能够同时改变目标的起始位置和速度,避免碰撞和时序错乱问题。随后使用马尔科夫链蒙特卡罗随机采样算法求解能量函数的最优值,得到了目标重排方案的最优解。实验表明,在压缩率相同的情况下,相较于其他方法,该模型生成的摘要视频中的目标碰撞和时序错乱的问题较少。
    • 乾竞元; 高伟; 滕国伟
    • 摘要: 技术可以从冗长的原始视频中提取出关键帧或关键镜头,生成简明紧凑的视频摘要,在基本概括了视频主要内容的基础上极大地缩短用户浏览时间。针对目前视频摘要算法普遍忽略视频中的运动信息而导致摘要缺乏逻辑性和故事性的问题,提出了一种基于多模态特征融合的动态视频摘要算法(MFFSN),采用了有监督的编码器-解码器的网络框架。在编码端通过深度神经网络提取原始视频帧的多尺度空间特征和光流图像的多尺度运动特征,利用运动引导注意力模块(Motion Guided Attention,MGA)进行时空注意力建模,对空间特征和运动特征进行有机融合得到多模态特征;在解码阶段,采用自注意力机制关注数据中的显著特征,再通过回归网络得到帧重要性分数;最后根据背包算法选择关键镜头生成动态摘要。在Sum Me基准数据集上的实验结果证明提出的MFFSN摘要算法优于现有的同类视频摘要算法。
    • 胡燕
    • 摘要: 在大数据时代,如何从浩如烟海的视频数据中高效地获取所需要的信息,已然成为当前困扰人们的一个难题,而视频摘要技术或许正是破局的关键所在。本文以专利申请为切入点,从专利的申请状况、申请人的研发重点以及专利发展趋势等方面,分析中国视频摘要技术的专利发展状况和趋势,希望对业内人士有所帮助。
    • 摘要: 为了增加论文的传播效果和被引用次数,提高论文的显示度和学术影响力,《机床与液压》杂志建议作者在投稿的同时提供图文摘要,并鼓励提供视频摘要。同时也欢迎已投稿作者提供图文摘要和视频摘要,用于数据库增强出版和新媒体平台论文推送。论文图文摘要撰写要求图文摘要是将论文内容可视化,更直观地展示文章的主要内容和主要创新点,让读者更高效地了解文章内容。首先,它是对文章内容和创新点的高度概括,其次,需要与配图相呼应以帮助读者更好地了解文章内容。
    • 张云佐; 郭亚宁; 李文博
    • 摘要: 为解决现有视频摘要方法的视频帧特征信息提取不充分、摘要结果过分依赖单一特征的问题,提出了一种融合时空切片和双注意力机制的视频摘要方法。在原视频的精准分段阶段,提出了基于时空切片的核时序分割算法(STS-KTS),将视频场景信息反映为时空切片纹理信息,采用水平映射法将预处理后的时空切片投影为一维数组,作为KTS的输入特征;以双注意力机制和分组卷积为基本组件,结合BiLSTM构建时空特征提取网络,以快速提取丰富的时空特征信息,从而配合纹理特征信息消除现有摘要模型对单一特征的过分依赖;采用帧参数预测模块获取最佳的视频帧贡献度分数、中心度分数以及帧序列位置;将帧分数转化为镜头分数,以选取内容丰富的片段,进而生成动态视频摘要。在SumMe和TVSum数据集上的实验表明:所提方法能提高生成摘要的准确性,比现有方法性能更高,尤其在SumMe数据集上的生成摘要准确性相比于现有方法提升了0.58%。
    • 陈周元; 陈平华; 申建芳
    • 摘要: 现有视频摘要生成模型存在计算量大,冗余帧带来的性能损耗大,模型效果不稳定等问题。基于此,提出融合GRU和非极大值抑制的视频摘要生成模型。所提模型对视频帧之间的特征关系进行建模,在获取帧级重要性得分模块中,提出一种融入GRU和注意力机制的Seq2Seq模型,增强帧与帧之间的时域特征关系影响,并且有效减少模型计算量,提高模型在反向传播时的收敛速度;在获取视频摘要模块中,提出基于非极大值抑制的关键序列生成算法,有效去除冗余帧。通过在多个数据集上与现今主流的视频摘要生成模型比对,显示所提模型在F-score和KFRR两个评估指标上均有不同程度的提升,表明其所生成的视频摘要具有更强的内容概括能力,并且模型在各种数据状况下具有较高的稳定性。
    • 习妍; 孔丽华; 侯艳飞
    • 摘要: [目的]探究新媒体出版在国际学术期刊知识传播上的应用,为国内期刊开展相关创新实践提供参考.[方法]采用文献调查、网络调研方法,针对图文摘要、视频摘要、播客这三种媒体业态,研究多家国际期刊和出版集团为提升论文传播效率所开展的相关实践,特别是在三者的提交与同行评议、生产与更新、展示和传播及版权方面的策略.[结果]国际出版机构对于这三种媒体业态的应用尚处于初级阶段,存在提交激励机制不完善、展示效果不理想、出版机构持续更新动力不足、对独立性与引用性的关注度低等问题,相关提交、评审、发布、传播、版权等机制有待探讨和完善.[结论]学术期刊出版和传播方式向着多元化、多媒体方向发展的趋势不可扭转,也将越趋繁荣.国内期刊可结合自身意愿、学科特征、发展规划,以及人力、技术和资金等情况,以国际相关应用先行者的经验为鏊,通过合理规划,以可执行、可持续、渐进的方式,将图文摘要、视频摘要、播客等媒体业态应用于期刊论文的出版和传播中.
    • 滑蕊; 吴心筱; 赵文天
    • 摘要: 视频摘要任务旨在通过生成简短的视频片段来表示原视频的主要内容,针对现有方法缺乏对语义信息探索的问题,提出了一种融合语义信息的视频摘要生成模型,学习视频特征使其包含丰富的语义信息,进而同时生成描述原始视频内容的视频摘要和文本摘要.该模型分为3个模块:帧级分数加权模块、视觉-语义嵌入模块、视频文本描述生成模块.帧级分数加权模块结合卷积网络与全连接层以获取帧级重要性分数;视觉-语义嵌入模块将视觉特征与文本特征映射到同一空间,以使2种特征相互靠近;视频文本描述生成模块最小化视频摘要的生成描述与文本标注真值之间的距离,以生成带有语义信息的视频摘要.测试时,在获取视频摘要的同时,该模型获得简短的文本摘要作为副产品,可以帮助人们更直观地理解视频内容.在SumMe和TVSum数据集上的实验表明:该模型通过融合语义信息,比现有先进方法取得了更好的性能,在这2个数据集上F-score指标分别提高了0.5%和1.6%.
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号