支持向量机中核函数的作用及其选取(附件)【字数:9242】
目 录
第一章 绪论 1
1.1 研究背景 1
1.2从线性分划到非线性分划 2
1.2.1 线性分划 2
1.2.2 非线性分划 4
第二章 支持向量机 7
2.1统计学习理论 7
2.2介绍支持向量机 8
2.2.1基本形式 8
2.2.2基本
*景先生毕设|www.jxszl.com +Q: ¥351916072¥
性质 10
2.2.3其他形式 11
第三章 核函数的介绍和选取 12
3.1核函数 12
3.2核函数的特征 12
3.3核函数的判定 12
3.4常用核函数 13
3.5支持向量机中核函数的选取方法 14
第四章 支持向量机及核函数的应用 16
4.1 支持向量机应用 16
4.2 MATLAB SVM Toolbox及应用 16
结 论 20
致 谢 21
参 考 文 献 22
附 录 24
第一章 绪论
1.1 研究背景
在统计学的研究过程中,通过对小样本统计的估算和预计,万普尼克(Vapnik)建立起了一套崭新的机器学习理论,我们称之为统计学习理论。在六七十年代,Vapnik等学者已经对统计学习理论进行探究。随着时间的推移,其理论不断地成熟和完善。直至九十年代,才产生了比较完整的理论体系,也就是统计学习理论。它为处理小样本统计估算与预计问题提出了一个模板。它能把很多方法整合到一起,解决未能解决的问题。同时,随着其理论的不断成熟,产生了一种解决问题的方法,即支持向量机。
在理论探究和算法完成等方面,支持向量机实现了迅猛地发展。在许多大型的国际会议中,支持向量机被选为会议专门讨论的部分,现在已发布了许多与支持向量机有关的专集。在国内的会议中,支持向量机也被选为会议专门讨论的部分。其中,《数据挖掘中的新方法—支持向量机》是我国首本与支持向量机有关的著作,它的作者是我国学者邓乃扬和田英杰。
最近几年,在支持向量机的理论探究和算法完成等方面,很多学者进行了深入的探究和分析。理论探究成果有:支持向量机的泛化分析能力,支持向量机的期望误差分析,支持向量机与其他模型之间的关系研究等。在算法完成方面,首先,由国外学者提出了在分类和回归的支持向量机的基础上产生的训练算法。之后,国内学者和国外学者断断续续地提出了支持向量机代数求解方法、支持向量机几何求解方法、支持向量机预处理方法等。在应用方面,Smola、ScholKopf等国外学者在研究工作中展示了大量关于支持向量机在生物信息学、计算语言学、计算机视觉等领域的具体应用。Cortes、Osuna、Smola、ScholKopf等国外学者的各种论文及报告提供了大量的有关资料,同时提供了工具箱的源代码给大家免费下载。随后,在互联网上,产生了的支持向量机及核学习的网站供大家浏览。
虽然,支持向量机的探究目前已经得到了令人振奋的结果,但由核函数的特定性征确定误差界、统计学习理论与其它理论之间的关系、核函数的选择、对于给定问题的泛化能力等问题,依然存在很多问题需要解决[6]。
1.2从线性分划到非线性分划
通过对我们已经知道的数据进行分类,即建立该问题分类模型,从而对数据的分类的类别进行预估,这就是分类问题。针对线性问题和非线性问题,支持向量机有不同的解决办法。当对问题建立分类模型时,线性可分问题的解决方式比较简单,但是对非线性可分的问题时,我们就必须在解决过程中引入核函数。
通过对我们已经知道的数据进行回归,即建立该问题回归模型,寻找出一条与已知点偏离较小的直线,这就是回归问题。对于线性回归和非线性回归,解法类似。
1.2.1 线性分划
线性可分分类问题:
给定训练集:T={(//), ,(//)}//,其中//,//={1,1},i=1, ,l.若存在w//,b//和正数//,使得对所有使//=1的下标i,有(w//)+b≥//,而对所有使//=1的下标i,有(w//)+b≤//,则称训练集T线性可分。即对应的分类问题是线性可分的[7]。
针对线性分划的分类问题,算法如下:
(1),给定训练集T={(//), ,(//)}//,其中//,//={1,1},i=1, ,l.
(2),选出合适的惩罚参数C>0,构造并求解最优化问题
////
s.t. //=0
//≥0, i=1, ,l.
得解//=//;
(3),计算//=//;选择//的一个小于C的正分量//,并据此计算//=////;
(4),构造分划超平面(//)+//,由此求得决策函数
ƒ(//)=sgn((//)+//).
线性回归问题:
给定训练集:T={(//), ,(//)}//,其中//,//=R,i=1, ,l.我们可以找到//上的一个线性函数,g(//)=(w//)+b,不论输入任何x的值,它所对应的值能够通过y=g(//)来预测出来[8]。
简单来说,线性回归问题的解决就是寻找出一条与已知点偏离较小的直线[6]。
对于线性分划的回归问题,算法如下:
原文链接:http://www.jxszl.com/jsj/sxtj/80814.html
最新推荐
热门阅读