资源预览内容
第1页 / 共22页
第2页 / 共22页
第3页 / 共22页
第4页 / 共22页
第5页 / 共22页
第6页 / 共22页
第7页 / 共22页
第8页 / 共22页
第9页 / 共22页
第10页 / 共22页
亲,该文档总共22页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
支持向量机(SVM)网络1神经网络配套Ch12presSV最优线性分界面(二分类问题)对线性可分集,总能找到使样本正确划分的分界面,而且有无穷多个,哪个是最优的?一种最优的分界准则(从对样本及参数的鲁棒性看)是使两类模式向量分开的间隔最大。支持向量机2神经网络配套Ch12presSV最优线性分界面的确定两分类的线性判别函数的一般表达式为:。方程定义了一个超平面H,它把两类训练样本完全分开。设个样本为:,则有分类规则:,由于训练集线性可分,改变权向量的摸,总可改写分类规则为:,进一步合并有紧凑式:同样还有:支持向量机3神经网络配套Ch12presSV最优线性分界面的确定(续)g(x)可以看成是从x到超平面的距离的一种度量,见图。把x表示成:,其中r是x到的垂直距离,则有:,即:支持向量机4神经网络配套Ch12presSV最优线性分界面的确定(续)间隔:间隔:离分界面H最近的样本点(即使的样本点)与分界面的距离,它是。这样,两类模式间隔的距离为。最优分界面:最优分界面:为使两类间隔最大,应使最小,等价于使最小。所以,最优分界面应满足:和支持向量:支持向量:距离最优分界面最近的位于间隔边界上的那些样本向量,也就是使得等号或成立的那些样本向量。支持向量机5神经网络配套Ch12presSV最优分界面的求解用Lagrange乘子法最小化代价函数:。构造Lagrange函数:其中为Lagrange乘子,达到极值的必要条件为:必要条件1:即:必要条件2:即:从最优化理论的KTT条件得出解必须满足:从必要条件1看到,只有的样本对权起作用,而此时必有,即相应的样本是支持向量。故解向量w是由支持向量构建的,它们决定分类结果。支持向量机6神经网络配套Ch12presSV最优分界面的求解(续)根据Lagrange优化方法,用对偶定理求乘子最优解。展开Lagrange函数有:将和代入上式,则有:求上式的最大值,可得最优解,则最优权向量为:(是支持向量的个数)最优偏置可选用一个支持向量样本求得:。最优分界面是:支持向量机7神经网络配套Ch12presSV线性不可分问题向高维空间(特征空间)映射模式可分性的Cover定理将复杂的模式分类问题非线性地投射到高维空间将比投射到低维空间更可能是线性可分的。基本原理通过某种非线性映射将样本映射到一个高维空间(特征空间),在这个高维空间中构造最优分类超平面:在特征空间用线性可分的结果,即代入上式得这样在映射到高维空间也只须进行内积运算,这是可以用原空间的函数实现的。根据泛函理论,只要核函数满足Mercer条件,它就对应某个变换空间中的内积。支持向量机8神经网络配套Ch12presSV线性不可分问题(续)向高维空间(特征空间)映射只要找到适当的核函数就可实现某个非线性变换后的线性分类,类似线性可分情形有:对求以下函数的极大值满足约束条件和。设最优解为,则最优分界面可写为:支持向量机9神经网络配套Ch12presSV线性不可分问题(续)向高维空间(特征空间)映射不同的核函数将形成不同的算法,常用的有:多项式核函数:径向基函数:支持向量机的结构图支持向量机sgn( )y10神经网络配套Ch12presSV线性不可分问题(续)(映射后也不能保证线性可分)增加松弛项,使分界面在训练集上平均分类误差最小。原问题为:寻找权向和偏置的最优值,使得它们们满足约束条件和,其中松弛变量时,是支持向量松弛变量,落入间隔区,在分界面的正确一侧松弛变量时,落入分界面的错误一侧此时,使得权向量和松弛变量最小化代价函数为其中是个常数,由使用者选定控制对错分样本的惩罚程度支持向量机11神经网络配套Ch12presSV对偶问题为:寻找Lagrange乘子最大化目标函数满足约束条件和(此项与前面线性可分情况结果不同)支持向量机12神经网络配套Ch12presSV支持向量机的设计算法在能够进行变换的情况下:(1)在约束条件和(或)下求函数极大值点;(2)计算最优权值和偏置值:,;(3)支持向量机的最优分界面为:。在选择核函数避免进行变换情况下,不同处有:(1)求函数极大值点;(2)计算最优权值:,其中是隐层输出;(3)支持向量机的最优分界面为:支持向量机13神经网络配套Ch12presSV支持向量机的特点适合对小样本数据的学习,注重样本自身信息,而非产生样本的规律(概率及条件概率等)。网络结构简单,只有一个隐层,隐层的节点数由所求得的支持向量个数自动决定。可以根据核函数的选择自动计算重要的网络参数。在解决模式分类问题方面,能提供较好的泛化性能。有些参数(如控制对错分样本惩罚程度的C)不易确定。虽然可以不需知道非线性映射的具体形式,但非线性映射的核函数不易得。判定一个给定的核函数是否满足Mercer定理条件是一件困难事。在待分类的模式为线性不可分时,怎样控制支持向量的选择是一个困难的问题。支持向量机14神经网络配套Ch12presSV支持向量机类型的RBF网络和MLP网络RBF网络Gauss核函数;对所有核相同,由设计者预先指定;隐层节点的数量由支持向量的个数自动决定;中心由支持向量的值自动决定。单隐层MLP网络Sigmoid核函数,其中只有一些特定的,值满足Mercer定理;隐层节点的个数由支持向量的个数自动决定;隐节点的权值由支持向量的值自动决定。支持向量机15神经网络配套Ch12presSV支持向量机设计举例XOR问题训练样本:方法一:选择非线性映射函数:将二维输入样本映射到一个六维特征空间。(1)求极值满足约束条件: (即必要条件2:)支持向量机16神经网络配套Ch12presSV支持向量机设计举例XOR问题(续)方法一(续):对求导并令导数为零,得到下列联立方程组:解得极值点为,。可见4个样本都是支持向量。(2)计算最优权值和偏置值:支持向量机17神经网络配套Ch12presSV支持向量机设计举例XOR问题(续)方法一(续):(3)支持向量机的最优分界面为:支持向量机18神经网络配套Ch12presSV支持向量机设计举例XOR问题(续)方法二:选择核函数为:将和代入上式,核函数可表为:将各训练样本代入,可计算出4*4对称矩阵为:9111K=191111911119(1)用拉格朗日乘子法求极大值点:支持向量机19神经网络配套Ch12presSV支持向量机设计举例XOR问题(续)方法二(续):对求导并令导数为零,得到下列联立方程组:解得极值点:。由于4个样本都是支持向量,隐层应有4个节点,各节点的输出为:,(2)计算最优权值和偏置值:其中支持向量机20神经网络配套Ch12presSV支持向量机设计举例XOR问题(续)方法二(续):(3)支持向量机的最优分界面为:即:将和下式()代入上式整理后有:支持向量机21神经网络配套Ch12presSV思考题从结构、学习、功能和性能等方面,对含单隐层MLP网络、 RBF网络和SVM网络进行详细比较,并结合自己的研究领域讨论它们的应用前景。22神经网络配套Ch12presSV
收藏 下载该资源
网站客服QQ:2055934822
金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号