首页> 中文学位 >最小VC维分类器的一种实现方法
【6h】

最小VC维分类器的一种实现方法

代理获取

目录

文摘

英文文摘

前言

声明

第一章绪论

1.1研究背景

1.2机器学习理论概述

1.2.1经典统计估计方法

1.2.2经验非线性方法

1.2.3统计学习理论

1.3本文主要工作及组织结构

第二章机器学习理论

2.1控制学习过程的推广能力

2.1.1 VC维

2.1.2结构风险最小化理论

2.2最优超平面

2.2.1△-间隔分类超平面

2.2.2构造最优超平面

2.3支持向量机

2.3.1内积回旋

2.3.2构造支持向量机

2.4 SVM常用的经典实现算法

2.4.1块算法

2.4.2 Osuna分解算法

2.4.3 SVM light算法

2.4.4 SMO算法

第三章最优化理论概述

3.1梯度法

3.2罚函数法

3.3复形调优法

第四章最小VC维分类器模型的建立

4.1最小VC维分类器的理论基础

4.2在特征空间中确定半径和权向量

4.3最小VC维分类器的建立

4.4最小VC维分类器的试验结果

4.5本章小结

第五章最小VC维分类器的实现及改进

5.1求解最小VC维分类器的基本算法

5.2试验一 求解最小VC维分类器基本算法的性能验证

5.3求解最小VC维分类器的改进算法

5.4试验二改进的求解最小VC维分类器算法的性能验证

5.5本章小结

第六章总结与展望

6.1总结

6.2进一步工作

参考文献

致谢

展开▼

摘要

机器学习的重要基础是传统的统计学,其前提是有足够多的样本,但当样本数目有限时难以取得理想的效果。统计学习理论(Statistical Learning Theory或SLT)是由 Vapnik等人提出的一种小样本统计理论,着重研究小样本情况下的统计规律及学习方法。SLT为机器学习问题建立了一个较好的理论框架,也发展出一种通用学习算法——支持向量机(Support VectorMachines或SVM),能够较好地解决小样本学习问题。正因为SVM有较为完备的理论基础和较好的学习性能,使得它成为继神经网络研究之后的研究热点。 尽管SVM的性能在许多实际问题中得到了验证,但其核参数的选择依然是支持向量机研究领域的一个待解决问题。通常情况下,SVM算法中核参数是事先确定的。本文中最小VC维分类器的非线性约束规划问题中包含了RBF核参数,可以在算法执行中自适应地确定。本文旨在找到一个快速求解最小VC维分类器的方法。 本文从统计学习理论出发,介-绍了控制学习过程的推广能力、结构风险最小化原则和支持向量机。对支持向量机的各种实现算法进行分析和总结,特别详细介绍了后面我们用到的0suna分解方法的基本思想和实现思路。简要地介绍了与本文有关的三种优化算法:梯度法、罚函数法以及复形调优法。 在介绍了最小VC维分类器的基本原理基础上,本文提出求解最小VC维分类器的基本算法,其核心是用梯度法结合罚函数法求得非线性约束规划的一个初始可行解,在此基础上利用复形调优法求解最小VC维分类器的非线性约束规划问题。试验证明,基本算法能较好的对数据进行分类。但随着样本数量的增加,该求解方法处理样本的速度会越来越慢,以至最终无法处理。 针对求解最小VC维分类器基本算法中存在的缺陷,本文根据Osuna分解算法的思想,提出了一种求解最小VC维分类器的改进算法。即将大规模非线性约束规划问题分解成一系列小规模非线性约束规划问题进行求解。通过试验证明引入分解算法后的改进算法有较好的分类性能和计算速度。改进算法和常用SVM算法之一的SVM<'light>算法比较可得:在分类性能上改进方法和SVM<'light>相当,在分类速度上较SVM<'light>更快。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号