资源预览内容
第1页 / 共102页
第2页 / 共102页
第3页 / 共102页
第4页 / 共102页
第5页 / 共102页
第6页 / 共102页
第7页 / 共102页
第8页 / 共102页
第9页 / 共102页
第10页 / 共102页
亲,该文档总共102页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
第3章 人工神经元网络控制论 网络模型智能控制基础3.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录23.1 引言v人工神经网络就是模拟人脑细胞的分布式工 作特点和自组织功能,且能实现并行处理、 自学习和非线性映射等能力的一种系统模型 。 3发展历史v1943年,心理学家McCmloch和数学家Pitts合作提 出形式神经元数学模型(MP),揭开了神经科学理论 的新时代。 v1944年Hebb提出了改变神经元连接强度的Hebb规 则。 v1957年Rosenblatt首次引进了感知器概念( Perceptron)。 v1976年,Grossberg提出了自适应共振理论。 v1982年,美国加州工学院物理学家Hopfield提出了 HNN模型,他引入了“计算能量函数”的概念,给出 了网络的稳定性判据。 v1986年,Rumelhart等PDP研究小组提出了多层前向 传播网络的BP学习算法。4主要内容53.1 引言3.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.4 神经网络的泛化能力 63.1.1 神经元模型 v神经元模型是生物神经元的抽象和模拟。可 看作多输入/单输出的非线性器件 。ui 神经元的内部状态, i 阀值, xi 输入信号,j=1,2,n; wij 表示从单元uj 到单元ui 的连接权值; si 外部输入信号7数学模型v通常直接假设 yi=f(Neti) vf为激励函数 ,有4种类型。8激励函数类型1v阈值型 9激励函数类型2v分段线性型 10激励函数类型3v Sigmoid 函数型11激励函数类型4v Tan函数型 123.1 引言3.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.4 神经网络的泛化能力 133.1.2 神经网络的模型分类123414网络结构图153.1 引言3.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.4 神经网络的泛化能力 163.1.3 神经网络的学习算法 ab17学习规则18相关学习v仅仅根据连接间的激活水平改变权系数。它 常用于自联想网络 。 v最常见的学习算法是Hebb规则。v表示学习步长19纠错学习v有导师学习方法 ,依赖关于输出节点的外部 反馈改变权系数。它常用于感知器网络、多 层前向传播网络和Boltzmann机网络。其学 习的方法是梯度下降法。 v最常见的学习算法有规则、模拟退火学习规 则。 20无导师学习v学习表现为自适应实现输入空间的检测规则 。它常用于ART、Kohonen自组织网络。 v在这类学习规则中,关键不在于实际节点的输 出怎样与外部的期望输出相一致,而在于调 整参数以反映观察事件的分布。 v例如Winner-Take-All 学习规则 。213.1 引言3.1.1 神经元模型3.1.2 神经网络的模型分类3.1.3 神经网络的学习算法 3.1.4 神经网络的泛化能力 223.1.4 神经网络的泛化能力 v当输入矢量与样本输入矢量存在差异时,其 神经网络的输出同样能够准确地呈现出应有 的输出。这种能力就称为神经网络的泛化能 力。 v在有导师指导下的学习中,泛化能力可以定 义为训练误差和测试误差之差。 v与输入矢量的个数、网络的节点数和权值与 训练样本集数目之间存在密切的关系。 233.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录243.2 前向神经网络模型3.2.1 网络结构 3.2.2 多层传播网络的BP学习算法3.2.3 快速的BP改进算法253.2.1 网络结构 单一神经元12326单一神经元w0 为阈值 ,wj 决定第j个输入的突触权系数。27单层神经网络结构 x0=128多层神经网络结构 v以单隐含层网络为例:Oj为隐含层的激励293.2 前向神经网络模型3.2.1 网络结构 3.2.2 多层传播网络的BP学习算法3.2.3 快速的BP改进算法303.2.2 多层传播网络的BP学习算法v基本思想 v单层网络的学习算法 v多层前向网络学习算法311. 有导师学习的基本思想 v性能指标为v()是一个正定的、可微的凸函数 ,常取 322. 单层网络的学习算法 v激励函数为线性函数时,可通过最小二乘法 来 学习。v激励函数为非线性函数时,可采用Delta规则 ,即梯度法,有是学习因子 333. 多层前向网络学习算法v针对多层前向网络 v有导师学习34网络模型v第r1个隐含层:v输出层35v采用梯度法: v其中:v定义广义误差 :v可得:BP学习算法36反向误差传播v输出层时,有:v隐含层时,有:37例3-1 v假设对于期望的输入。网络权系数的初始值见图。 v试用BP算法训练此网络(本例中只给出一步 迭代学习过程)。 v这里,取神经元激励函数: 学习步长为38图31539当前输出40计算广义误差 41连接权系数更新 42学习流程43(1) 初始化v设置学习因子0。n较大时,收敛快,但易振荡。n较小时,反之。 v最大容许误差Emax。 用于判断学习是否结束。v随机赋网络初始权值。 一般选择比较小的随机数。 44增量型学习累积型学习 (2) 学习方式45收敛性46(3) 学习速率v激励函数,如用Sigmoid函数,应增大斜率, 减少饱和的情况。 v调节学习因子 v增加Momentum项 47例3-2:非线性函数逼近v目标函数:48学习设置v采用传统的BP学习算法n激励函数都为Sigmoid函数。n初始权系数阵由(0,1)之间的随机数组成。n学习步长=0.09。 v学习样本取20点,即: v校验样本取30点,即:49两种MLP模型的学习效果503.2 前向神经网络模型3.2.1 网络结构 3.2.2 多层传播网络的BP学习算法3.2.3 快速的BP改进算法511. 快速BP算法vFahlman在1988年首先提出v当问题满足以下条件时:n误差表面呈抛物面、极值点附近凹面向上;n某一权系数的梯度变化与其它权系数变化无关 。 v可采取如下的更新公式522. 共轭梯度学习算法v共轭梯度算法是一种经典优化方法v共轭梯度学习算法 特点:使用二阶导数信息,但不计算Hessian 矩阵53目标函数的二阶近似v目标函数:vTaylor展开 :v其中:54最佳权系数求取v函数取极小值时,最佳权系数可求解获得。v由最优化理论可知,解决H逆矩阵的计算问 题方法之一是利用共轭梯度来间接地构成H 的逆矩阵值。 55共轭方向 v如果 diHdjT=0 对于所有的 ij, i,j,=1,2,.,n。 则称d1,d2,.,dn是H共轭的。v可见d1,d2,.,dn是线性无关的 ,因此可 作为一组基。56最优矩阵的间接求解v记W*是极值点的权系数矢量,则有:令 Wk=Wk-1+kdk ,则n次迭代后可得W*。57共轭梯度学习算法 v注意到v则58共轭矢量的递推求取v定义第一个矢量d1为初始点的负梯度矢量, 即 d1=-g1。 v根据gTk+1dk=0 (线性无关),可得 dk+1=-gk+1+kdk k=gk+1HdkT/(dkHdkT) v注意到(gk+1-gk)T=H(Wk+1-Wk)T=kHdkT 所以 k=gk+1(gk+1-gk)T/ dk (gk+1-gk)T k 可通过一维步长最优搜索得到593.1 引言3.2 前向神经网络模型3.6 神经网络控制基础3.7 非线性动态系统的神经网络辨识3.8 神经网络控制的学习机制3.9 神经网络控制器的设计3.3 动态神经网络模型 3.10 单一神经元控制法目录603.3 动态神经网络模型 动态神经网络带时滞的多层感知器网络 Hopfield网络 回归神经网络 613.3.1 带时滞的多层感知器网络有两种实现:n无输出反馈 n有输出反馈 62带时滞的多层感知器网络1 图3-20 时滞神经网络结构63带时滞的多层感知器网络2 图3-21 带反馈时滞神经网络结构643.3.2 Hopfield神经网络 v具有相互连接的反馈型神经网络模型 v将其定义的“能量函数”概念引入到神经网络 研究中,给出了网络的稳定性判据。 v用模拟电子线路实现了所提出的模型,并成 功地用神经网络方法实现了4位A/D转换。 65类型12661. 二值型的Hopfield网络v全连接单层网络 v神经元模型yi取值通常为 0和1或-1和1 67例3-4:状态转移关系v假设一个3节点的离散Hopfield神经网络,已 知网络权值与阈值如图3-23(a)所示。v采取随机异步更新策略,求计算状态转移关 系。68状态转移图69动力学特征:能量井v能量函数v能量井 :能量极小状态(与网络的稳定状态 一一对应) v用途:联想记忆、优化70能量井设计v能量井的分布是由连接权值决定的。n一是根据求解问题的要求直接计算出所需要的 连接权值。这种方法为静态产生方法,一旦权 值确定下来就不再改变;n二是通过提供一种学习机制来训练网络,使其 能够自动调整连接权值,产生期望的能量井。 这种方法为动态产生方法。71(1)权值的静态设计方法:例3-6 v如下图3节点DHNN模型为例要求设计的能量 井为状态y1y2y3=010和111。权值和阈值可在 -1,1区间取值,确定网络权值和阈值。 72解v对于状态A,当系统处于稳态时, 有W12+10W23+30 W12+ W23+20 W23+ W13+30 73特解v W12=0.5, W13=0.4, W23=0.1,1=-0.7, 2=0.2, 3=-0.4.v W12=-0.5, W13=0.5, W23=0.4,1=0.1, 2=0.2, 3=-0.7. v出现了假能量井100 74(2)基于学习规则的设计方法vHebb学习规则(主要方法) v学习规则 75Hebb学习规则 v原则为:若i与j两个神经元同时处于兴奋状态 ,则它们之间的连接应加强,即: . 76外积规则 v对于一给定的需记忆的样本向量t1,t2,.,tN , 如果初始权值为0,tk的状态值为+1或-1,则 其连接权系数的学习可以利用“外积规则”, 即:v标量形式:v活跃值为1或0时 :772. 网络的稳定性v定理3-2: 令S=(W,)代表神经网络,W 为一对称矩阵。则有:n如果S工作在串行模式,W的对角元素非负(包 括对角元为0的情况),则网络总是收敛于稳定 状态。(即在状态空间没有极限环存在);n如果S工作在并行模式时,网络总是收敛于稳定 状态或Hamming距离小于2的极限环。78证明v定义能量函数为:v将E(k)在Y(k)展开Talyor级数,有:v其中,79v不失一般性,假设阈值函数f()为符号函数 sgn()。则 其中:80v显然 v在串行工作方式下, 81例3-7: v 假设神经元的阈值矢量=0,网络输出只取 两值0,1。要求Hopfield网络记忆如下 稳定状态, t1=(1 0 1 0)T。设采取并行更新 ,并对以下三种初始状态下的网络行为
网站客服QQ:2055934822
金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号