资源预览内容
第1页 / 共102页
第2页 / 共102页
第3页 / 共102页
第4页 / 共102页
第5页 / 共102页
第6页 / 共102页
第7页 / 共102页
第8页 / 共102页
第9页 / 共102页
第10页 / 共102页
亲,该文档总共102页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
第3章 人工神经元网络控制论 网络模型 智能控制基础 3 1 引言 3 2 前向神经网络模型 3 6 神经网络控制基础 3 7 非线性动态系统的神经网络辨识 3 8 神经网络控制的学习机制 3 9 神经网络控制器的设计 3 3 动态神经网络模型 3 10 单一神经元控制法 目录 3 1 引言 v人工神经网络就是模拟人脑细胞的分布式工 作特点和自组织功能 且能实现并行处理 自学习和非线性映射等能力的一种系统模型 发展历史 v1943年 心理学家McCmloch和数学家Pitts合作提 出形式神经元数学模型 MP 揭开了神经科学理论 的新时代 v1944年Hebb提出了改变神经元连接强度的Hebb规 则 v1957年Rosenblatt首次引进了感知器概念 Perceptron v1976年 Grossberg提出了自适应共振理论 v1982年 美国加州工学院物理学家Hopfield提出了 HNN模型 他引入了 计算能量函数 的概念 给出 了网络的稳定性判据 v1986年 Rumelhart等PDP研究小组提出了多层前向 传播网络的BP学习算法 主要内容 3 1 引言 3 1 1 神经元模型 3 1 2 神经网络的模型分类 3 1 3 神经网络的学习算法 3 1 4 神经网络的泛化能力 3 1 1 神经元模型 v神经元模型是生物神经元的抽象和模拟 可 看作多输入 单输出的非线性器件 ui 神经元的内部状态 i 阀值 xi 输入信号 j 1 2 n wij 表示从单元uj 到单元ui 的连接权值 si 外部输入信号 数学模型 v通常直接假设 yi f Neti vf为激励函数 有4种类型 激励函数类型1 v阈值型 激励函数类型2 v分段线性型 激励函数类型3 v Sigmoid 函数型 激励函数类型4 v Tan函数型 3 1 引言 3 1 1 神经元模型 3 1 2 神经网络的模型分类 3 1 3 神经网络的学习算法 3 1 4 神经网络的泛化能力 3 1 2 神经网络的模型分类 1 2 3 4 网络结构图 3 1 引言 3 1 1 神经元模型 3 1 2 神经网络的模型分类 3 1 3 神经网络的学习算法 3 1 4 神经网络的泛化能力 3 1 3 神经网络的学习算法 a b 学习规则 相关学习 v仅仅根据连接间的激活水平改变权系数 它 常用于自联想网络 v最常见的学习算法是Hebb规则 v 表示学习步长 纠错学习 v有导师学习方法 依赖关于输出节点的外部 反馈改变权系数 它常用于感知器网络 多 层前向传播网络和Boltzmann机网络 其学 习的方法是梯度下降法 v最常见的学习算法有 规则 模拟退火学习规 则 无导师学习 v学习表现为自适应实现输入空间的检测规则 它常用于ART Kohonen自组织网络 v在这类学习规则中 关键不在于实际节点的输 出怎样与外部的期望输出相一致 而在于调 整参数以反映观察事件的分布 v例如Winner Take All 学习规则 3 1 引言 3 1 1 神经元模型 3 1 2 神经网络的模型分类 3 1 3 神经网络的学习算法 3 1 4 神经网络的泛化能力 3 1 4 神经网络的泛化能力 v当输入矢量与样本输入矢量存在差异时 其 神经网络的输出同样能够准确地呈现出应有 的输出 这种能力就称为神经网络的泛化能 力 v在有导师指导下的学习中 泛化能力可以定 义为训练误差和测试误差之差 v与输入矢量的个数 网络的节点数和权值与 训练样本集数目之间存在密切的关系 3 1 引言 3 2 前向神经网络模型 3 6 神经网络控制基础 3 7 非线性动态系统的神经网络辨识 3 8 神经网络控制的学习机制 3 9 神经网络控制器的设计 3 3 动态神经网络模型 3 10 单一神经元控制法 目录 3 2 前向神经网络模型 3 2 1 网络结构 3 2 2 多层传播网络的BP学习算法 3 2 3 快速的BP改进算法 3 2 1 网络结构 单一神经元 1 2 3 单一神经元 w0 为阈值 wj 决定第j个输入的突触权系数 单层神经网络结构 x0 1 多层神经网络结构 v以单隐含层网络为例 Oj为隐含层的激励 3 2 前向神经网络模型 3 2 1 网络结构 3 2 2 多层传播网络的BP学习算法 3 2 3 快速的BP改进算法 3 2 2 多层传播网络的BP学习算法 v基本思想 v单层网络的学习算法 v多层前向网络学习算法 1 有导师学习的基本思想 v性能指标为 v 是一个正定的 可微的凸函数 常取 2 单层网络的学习算法 v激励函数为线性函数时 可通过最小二乘法 来 学习 v激励函数为非线性函数时 可采用Delta规则 即梯度法 有 是学习因子 3 多层前向网络学习算法 v针对多层前向网络 v有导师学习 网络模型 v第r 1个隐含层 v输出层 v采用梯度法 v其中 v定义广义误差 v可得 BP学习算法 反向误差传播 v输出层时 有 v隐含层时 有 例3 1 v假设对于期望的输入 网络权系数的初始值见图 v试用BP算法训练此网络 本例中只给出一步 迭代学习过程 v这里 取神经元激励函数 学习步长为 图3 15 当前输出 计算广义误差 连接权系数更新 学习流程 1 初始化 v设置学习因子 0 n较大时 收敛快 但易振荡 n较小时 反之 v最大容许误差Emax 用于判断学习是否结束 v随机赋网络初始权值 一般选择比较小的随机数 增量型学习 累积型学习 2 学习方式 收敛性 3 学习速率 v激励函数 如用Sigmoid函数 应增大斜率 减少饱和的情况 v调节学习因子 v增加Momentum项 例3 2 非线性函数逼近 v目标函数 学习设置 v采用传统的BP学习算法 n激励函数都为Sigmoid函数 n初始权系数阵由 0 1 之间的随机数组成 n学习步长 0 09 v学习样本取20点 即 v校验样本取30点 即 两种MLP模型的学习效果 3 2 前向神经网络模型 3 2 1 网络结构 3 2 2 多层传播网络的BP学习算法 3 2 3 快速的BP改进算法 1 快速BP算法 vFahlman在1988年首先提出 v当问题满足以下条件时 n误差表面呈抛物面 极值点附近凹面向上 n某一权系数的梯度变化与其它权系数变化无关 v可采取如下的更新公式 2 共轭梯度学习算法 v共轭梯度算法是一种经典优化方法 v共轭梯度学习算法 特点 使用二阶导数信息 但不计算Hessian 矩阵 目标函数的二阶近似 v目标函数 vTaylor展开 v其中 最佳权系数求取 v函数取极小值时 最佳权系数可求解 获得 v由最优化理论可知 解决H逆矩阵的计算问 题方法之一是利用共轭梯度来间接地构成H 的逆矩阵值 共轭方向 v如果 diHdjT 0 对于所有的 i j i j 1 2 n 则称d1 d2 dn是H共轭的 v可见d1 d2 dn是线性无关的 因此可 作为一组基 最优矩阵的间接求解 v记W 是极值点的权系数矢量 则有 令 Wk Wk 1 kdk 则n次迭代后可得W 共轭梯度学习算法 v注意到 v则 共轭矢量的递推求取 v定义第一个矢量d1为初始点的负梯度矢量 即 d1 g1 v根据gTk 1dk 0 线性无关 可得 dk 1 gk 1 kdk k gk 1HdkT dkHdkT v注意到 gk 1 gk T H Wk 1 Wk T kHdkT 所以 k gk 1 gk 1 gk T dk gk 1 gk T k 可通过一维步长最优搜索得到 3 1 引言 3 2 前向神经网络模型 3 6 神经网络控制基础 3 7 非线性动态系统的神经网络辨识 3 8 神经网络控制的学习机制 3 9 神经网络控制器的设计 3 3 动态神经网络模型 3 10 单一神经元控制法 目录 3 3 动态神经网络模型 动态神经网络 带时滞的多层感知器网络 Hopfield网络 回归神经网络 3 3 1 带时滞的多层感知器网络 有两种实现 n无输出反馈 n有输出反馈 带时滞的多层感知器网络1 图3 20 时滞神经网络结构 带时滞的多层感知器网络2 图3 21 带反馈时滞神经网络结构 3 3 2 Hopfield神经网络 v具有相互连接的反馈型神经网络模型 v将其定义的 能量函数 概念引入到神经网络 研究中 给出了网络的稳定性判据 v用模拟电子线路实现了所提出的模型 并成 功地用神经网络方法实现了4位A D转换 类型 1 2 1 二值型的Hopfield网络 v全连接单层网络 v神经元模型 yi取值通常为 0和1或 1和1 例3 4 状态转移关系 v假设一个3节点的离散Hopfield神经网络 已 知网络权值与阈值如图3 23 a 所示 v采取随机异步更新策略 求计算状态转移关 系 状态转移图 动力学特征 能量井 v能量函数 v能量井 能量极小状态 与网络的稳定状态 一一对应 v用途 联想记忆 优化 能量井设计 v能量井的分布是由连接权值决定的 n一是根据求解问题的要求直接计算出所需要的 连接权值 这种方法为静态产生方法 一旦权 值确定下来就不再改变 n二是通过提供一种学习机制来训练网络 使其 能够自动调整连接权值 产生期望的能量井 这种方法为动态产生方法 1 权值的静态设计方法 例3 6 v如下图3节点DHNN模型为例要求设计的能量 井为状态y1y2y3 010和111 权值和阈值可在 1 1 区间取值 确定网络权值和阈值 解 v对于状态A 当系统处于稳态时 有 W12 10 W23 30 W12 W23 2 0 W23 W13 3 0 特解 v W12 0 5 W13 0 4 W23 0 1 1 0 7 2 0 2 3 0 4 v W12 0 5 W13 0 5 W23 0 4 1 0 1 2 0 2 3 0 7 v出现了假能量井100 2 基于学习规则的设计方法 vHebb学习规则 主要方法 v 学习规则 Hebb学习规则 v原则为 若i与j两个神经元同时处于兴奋状态 则它们之间的连接应加强 即 外积规则 v对于一给定的需记忆的样本向量 t1 t2 tN 如果初始权值为0 tk的状态值为 1或 1 则 其连接权系数的学习可以利用 外积规则 即 v标量形式 v活跃值为1或0时 2 网络的稳定性 v定理3 2 令S W 代表神经网络 W 为一对称矩阵 则有 n如果S工作在串行模式 W的对角元素非负 包 括对角元为0的情况 则网络总是收敛于稳定 状态 即在状态空间没有极限环存在 n如果S工作在并行模式时 网络总是收敛于稳定 状态或Hamming距离小于2的极限环 证明 v定义能量函数为 v将E k 在Y k 展开Talyor级数 有 v其中 v不失一般性 假设阈值函数f 为符号函数 sgn 则 其中 v显然 v在串行工作方式下 例3 7 v 假设神经元的阈值矢量 0 网络输出只取 两值 0 1 要求Hopfield网络记忆如下 稳定状态 t1 1 0 1 0 T 设采取并行更新 并对以下三种初始状态下的网络行为作出 评价 ny1 0 1 0 0 1 T ny2 0 1 0 0 0 T ny3 0 0 0 0 1 T 步骤1 权值设计 v根据 v得 步骤2 稳定性分析 v 对于y1 0 有 1 0 0 1 T 0 0 0 0 T 0 0 0 0 T 因此 y1 0 0 0 0 T 是一个稳定态 v 对于y2 0 有 1 0 0 0 T 0 0 1 0 T 1 0 0 0 T 所以初始状态2不属于此Hopfield网络记忆范围 无法实现联想 v 对于y3 0 有 0 0 0 1 T 0 1 0 0 T 0 0 0 1 T 也不属于此Hopfield区的记忆范围 3 应用 联想记忆功能 v必须具备两个基本条件 n能够收敛于稳定状态 利用此稳态来记忆样本 信息 n具有回忆能力 能够从某一局部输入信息回忆 起与其相关的其它记忆 或者由某一残缺的信 息回忆起比较完整的记忆 举例 数字识别 X x1 x2 xN T X 1 1 N N 10 12 120 存在的问题 v假能量井现象
收藏 下载该资源
网站客服QQ:2055934822
金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号