第7章 典型神经网络 7.1 单神经元网络.

Slides:



Advertisements
Similar presentations
第五节 函数的微分 一、微分的定义 二、微分的几何意义 三、基本初等函数的微分公式与微分运算 法则 四、微分形式不变性 五、微分在近似计算中的应用 六、小结.
Advertisements

2.8 函数的微分 1 微分的定义 2 微分的几何意义 3 微分公式与微分运算法则 4 微分在近似计算中的应用.
第八章 第四节 机动 目录 上页 下页 返回 结束 一个方程所确定的隐函数 及其导数 隐函数的微分法.
2.5 函数的微分 一、问题的提出 二、微分的定义 三、可微的条件 四、微分的几何意义 五、微分的求法 六、小结.
§9.3 人工神经网络 n 人工神经网络 (Artificial Neural Network, ANN) 是在现代生物学研究人脑组织所取得成果的基 础上提出的,它利用大量简单的处理单元广泛 连接组成的复杂网络来模拟人类大脑的神经网 络结构和行为。 n 人工神经网络具有人脑功能的基本特征:即学 习、记忆、概括、归纳和抽取等,从而解决了.
病历书写 中山医院呼吸科 张 新. 定 义 病历是临床医生根据问诊、体格检查、实验 室和其他检查获得的资料经过归纳、分析、整理, 按照规定的格式而写成的;是关于病人发病情况, 病情发展变化,转归和诊疗情况的系统记录。 病历是临床医生根据问诊、体格检查、实验 室和其他检查获得的资料经过归纳、分析、整理,
练一练: 在数轴上画出表示下列各数的点, 并指出这些点相互间的关系: -6 , 6 , -3 , 3 , -1.5, 1.5.
第 5 章 径向基函数网络 中国科大 计算机学院 第 II 部分 人工神经网络.
数据挖掘导论 福建医科大学 郑伟成.
內部審核實務 新竹縣政府主計處四科 王美琪
第三章 函数逼近 — 最佳平方逼近.
基于RBF神经网络的故障诊断.
实验四 利用中规模芯片设计时序电路(二).
智能控制 授课专业:电子信息工程 授课班级: 授课时间:2010年下学期 主讲教师:谭跃.
第五节 微积分基本公式 、变速直线运动中位置函数与速度 函数的联系 二、积分上限函数及其导数 三、牛顿—莱布尼茨公式.
第5章 定积分及其应用 基本要求 5.1 定积分的概念与性质 5.2 微积分基本公式 5.3 定积分的换元积分法与分部积分法
不确定度的传递与合成 间接测量结果不确定度的评估
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
第九章  Elman网络与学习算法 北京科技大学 信息工程学院 付冬梅
基于粒子群优化算法和递归神经网络的非线性系统辨识
人工神经网络及其应用 神经网络基础知识.
数据挖掘原理与SPSS Clementine应用宝典
计算机基础知识 丁家营镇九年制学校 徐中先.
强连通分量 无向图 1、任意两顶点连通称该图为连通图 2、否则将其中的极大连通子图称为连通分量 A D C B E 有向图
走进编程 程序的顺序结构(二).
基于全方位视觉的多人体运动检测跟踪 利用全方位摄像机获取360˚ 的环境信息,在室内对多个人体目标进行实时运动检测。
第一单元 初识C程序与C程序开发平台搭建 ---观其大略
第五章 BP网络 北京科技大学 信息工程学院 付冬梅
第4章 非线性规划 一维搜索方法 2011年11月.
§2 求导法则 2.1 求导数的四则运算法则 下面分三部分加以证明, 并同时给出相应的推论和例题 .
Ch 08.多层神经网络 1.
第十章 方差分析.
数据挖掘工具性能比较.
实验六 积分器、微分器.
神经网络算法的研究与应用 数学建模小学期小组作业 理学院 信息与计算科学 2018年07月06日 学院: 专业: 组员: 日期:
28.1 锐角三角函数(2) ——余弦、正切.
第4章 非线性规划 4.5 约束最优化方法 2019/4/6 山东大学 软件学院.
神经信息学 平行分布式理论框架 史忠植 中科院计算所 2019/4/11.
10.2 串联反馈式稳压电路 稳压电源质量指标 串联反馈式稳压电路工作原理 三端集成稳压器
chapter 5 突触动力学Ⅱ—— 有监督学习
线 性 代 数 厦门大学线性代数教学组 2019年4月24日6时8分 / 45.
Backpropagation Algorithm
第十章 双线性型 Bilinear Form 厦门大学数学科学学院 网址: gdjpkc.xmu.edu.cn
成绩是怎么算出来的? 16级第一学期半期考试成绩 班级 姓名 语文 数学 英语 政治 历史 地理 物理 化学 生物 总分 1 张三1 115
复习: 若A(x1,y1,z1) , B(x2,y2,z2), 则 AB = OB - OA=(x2-x1 , y2-y1 , z2-z1)
第16讲 相似矩阵与方阵的对角化 主要内容: 1.相似矩阵 2. 方阵的对角化.
§8.3 不变因子 一、行列式因子 二、不变因子.
3.1.2 空间向量的数量积运算 1.了解空间向量夹角的概念及表示方法. 2.掌握空间向量数量积的计算方法及应用.
Hopfield神经网络模型与学习算法.
Chapter 18 使用GRASP的对象设计示例.
第4课时 绝对值.
第六节 用频率特性法分析系统性能举例 一、单闭环有静差调速系统的性能分析 二、单闭环无静差调速系统的性能分析
学习任务三 偏导数 结合一元函数的导数学习二元函数的偏导数是非常有用的. 要求了解二元函数的偏导数的定义, 掌握二元函数偏导数的计算.
魏新宇 MATLAB/Simulink 与控制系统仿真 魏新宇
第一部分:概率 产生随机样本:对分布采样 均匀分布 其他分布 伪随机数 很多统计软件包中都有此工具 如在Matlab中:rand
1.非线性规划模型 2.非线性规划的Matlab形式
第15讲 特征值与特征向量的性质 主要内容:特征值与特征向量的性质.
GIS基本功能 数据存储 与管理 数据采集 数据处理 与编辑 空间查询 空间查询 GIS能做什么? 与分析 叠加分析 缓冲区分析 网络分析
单输入神经网络的性能比较 以及 二输入Legendre神经网络的建立
§2 方阵的特征值与特征向量.
控制系统计算机辅助设计——MATLAB语言与应用
滤波减速器的体积优化 仵凡 Advanced Design Group.
基于列存储的RDF数据管理 朱敏
3.2 平面向量基本定理.
教学大纲(甲型,54学时 ) 教学大纲(乙型, 36学时 )
Volterra-Lotka方程 1925年, A. Lotka(美)和V. Volterra(意)给出了第一个两物种间的捕食模型。
FVX1100介绍 法视特(上海)图像科技有限公司 施 俊.
第4章 感知器(Perceptron).
最小生成树 最优二叉树.
Presentation transcript:

第7章 典型神经网络 7.1 单神经元网络

2 神经元模型 图7-1中 为神经元的内部状态, 为阈值, 为输入信号, , 为表示从单元 到单元 的连接权系数, 单神经元模型可描述为:

通常情况下,取 即

图7-1 单神经元模型

常用的神经元非线性特性有以下四种: (1)阈值型 图7-2 阈值型函数

(2)分段线性型 图7-3 分段线性函数

(3)Sigmoid函数型 图7-4 Sigmoid函数

7.2 BP神经网络 1986年,Rumelhart等提出了误差反向传播神经网 络,简称BP网络(Back Propagation),该网络是 一种单向传播的多层前向网络。 误差反向传播的BP算法简称BP算法,其基本思 想是梯度下降法。它采用梯度搜索技术,以期使网络 的实际输出值与期望输出值的误差均方值为最小。

7.2.1 BP网络特点 (1)是一种多层网络,包括输入层、隐含层和输出层; (2)层与层之间采用全互连方式,同一层神经元之间不连接; (3)权值通过δ学习算法进行调节; (4)神经元激发函数为S函数; (5)学习算法由正向传播和反向传播组成; (6)层与层的连接是单向的,信息的传播是双向的。

7.2.2 BP网络结构 含一个隐含层的BP网络结构如图7-5所示,图中 为输入层神经元,为隐层神经元,为输出层神经元。

图7-5 BP神经网络结构

7.2.3 BP网络的逼近 BP网络逼近的结构如图7-6所示,图中k为网络的迭代步骤,u(k)和y(k)为逼近器的输入。BP为网络逼近器,y(k)为被控对象实际输出,yn(k)为BP的输出。将系统输出y(k)及输入u(k)的值作为逼近器BP的输入,将系统输出与网络输出的误差作为逼近器的调整信号。

图7-6 BP神经网络逼近

用于逼近的BP网络如图7-7所示。 图7-7 用于逼近的BP网络

BP算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐层逐层处理,并传向输出层,每层神经元(节点)的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转至反向传播,将误差信号(理想输出与实际输出之差)按联接通路反向计算,由梯度下降法调整各层神经元的权值,使误差信号减小。

(1)前向传播:计算网络的输出。 隐层神经元的输入为所有输入的加权之和: 隐层神经元的输出采用S函数激发: 则

(1)前向传播:计算网络的输出。 隐层神经元的输入为所有输入的加权之和: 隐层神经元的输出采用S函数激发: 则

输出层神经元的输出: 网络输出与理想输出误差为: 误差性能指标函数为:

(2)反向传播:采用δ学习算法,调整各层间的权值。 根据梯度下降法,权值的学习算法如下: 输出层及隐层的连接权值学习算法为: k+1时刻网络的权值为:

隐层及输入层连接权值学习算法为: 其中 k+1时刻网络的权值为:

如果考虑上次权值对本次权值变化的影响,需要加入动量因子 ,此时的权值为: 如果考虑上次权值对本次权值变化的影响,需要加入动量因子 ,此时的权值为: 其中, 为学习速率, 为动量因子。

阵(即为对象的输出对控制输入的灵敏度信息)算法为: 其中取

7.2.4 BP网络的优缺点 BP网络的优点为: (1)只要有足够多的隐层和隐层节点,BP网络可以逼近任意的非线性映射关系; (2)BP网络的学习算法属于全局逼近算法,具有较强的泛化能力。 (3)BP网络输入输出之间的关联信息分布地存储在网络的连接权中,个别神经元的损坏只对输入输出关系有较小的影响,因而BP网络具有较好的容错性。

BP网络的主要缺点为: (1)待寻优的参数多,收敛速度慢; (2)目标函数存在多个极值点,按梯度下降法进行学习,很容易陷入局部极小值; (3)难以确定隐层及隐层节点的数目。目前,如何根据特定的问题来确定具体的网络结构尚无很好的方法,仍需根据经验来试凑。

由于BP网络具有很好的逼近非线性映射的能力,该网络在模式识别、图像处理、系统辨识、函数拟合、优化计算、最优预测和自适应控制等领域有着较为广泛的应用。 由于BP网络具有很好的逼近特性和泛化能力,可用于神经网络控制器的设计。但由于BP网络收敛速度慢,难以适应实时控制的要求。

7.2.5 BP网络逼近仿真实例 使用BP网络逼近对象: BP网络逼近程序见chap7_1.m

7.2.6 BP网络模式识别 由于神经网络具有自学习、自组织和并行处理等特征,并具有很强的容错能力和联想能力,因此,神经网络具有模式识别的能力。

在神经网络模式识别中,根据标准的输入输出模式对,采用神经网络学习算法,以标准的模式作为学习样本进行训练,通过学习调整神经网络的连接权值。当训练满足要求后,得到的神经网络权值构成了模式识别的知识库,利用神经网络并行推理算法对所需要的输入模式进行识别。

当待识别的输入模式与训练样本中的某个输入模式相同时,神经网络识别的结果就是与训练样本中相对应的输出模式。当待识别的输入模式与训练样本中所有输入模式都不完全相同时,则可得到与其相近样本相对应的输出模式。当待识别的输入模式与训练样本中所有输入模式相差较远时,就不能得到正确的识别结果,此时可将这一模式作为新的样本进行训练,使神经网络获取新的知识,并存储到网络的权值矩阵中,从而增强网络的识别能力。

以第p个样本为例,用于训练的BP网络结构如图7-11所示。

图7-11 BP神经网络结构

网络的学习算法如下: (1)前向传播:计算网络的输出。 隐层神经元的输入为所有输入的加权之和: 隐层神经元的输出 采用S函数激发 :

则 输出层神经元的输出:

网络第 个输出与相应理想输出 的误差为: 第p个样本的误差性能指标函数为: 其中N为网络输出层的个数。

(2)反向传播:采用梯度下降法,调整各层间的权值。权值的学习算法如下: 输出层及隐层的连接权值 学习算法为:

隐层及输入层连接权值 学习算法为: 其中

如果考虑上次权值对本次权值变化的影响,需要加入动量因子 ,此时的权值为: 如果考虑上次权值对本次权值变化的影响,需要加入动量因子 ,此时的权值为: 其中 为学习速率, 为动量因子。

7.2.7 仿真实例: 取标准样本为3输入2输出样本,如表7-1所示。 7.2.7 仿真实例:   取标准样本为3输入2输出样本,如表7-1所示。 表7-1 训练样本 输 入 输 出 1 0.5

BP网络模式识别程序包括网络训练程序chap7_2a.m和网络测试程序chap7_2b.m。

7.3 RBF神经网络 径向基函数(RBF-Radial Basis Function)神经网络是由J.Moody和C.Darken在80年代末提出的一种神经网络,它是具有单隐层的三层前馈网络。由于它模拟了人脑中局部调整、相互覆盖接收域(或称感受野-Receptive Field)的神经网络结构,因此,RBF网络是一种局部逼近网络,已证明它能任意精度逼近任意连续函数。

RBF网络特点 (1) RBF网络的作用函数为高斯函数,是局部的,BP网络的作用函数为S函数,是全局的; (2) 如何确定RBF网络隐层节点的中心及基宽度参数是一个困难的问题; (3) 已证明RBF网络具有唯一最佳逼近的特性,且无局部极小。

7.3.1 RBF网络结构 RBF网络是一种三层前向网络,由于输入到输出的映射是非线性的,而隐含层空间到输出空间的映射是线性的,从而可以大大加快学习速度并避免局部极小问题。

图7-13 RBF网络结构

7.3.2 RBF网络的逼近 采用RBF网络逼近一对象的结构如图7-14所示。

图7-14 RBF神经网络逼近

在RBF网络结构中, 为网络的输入向量。设RBF网络的径向基向量 ,其中hj为高斯基函数: 网络的第j个结点的中心矢量为: 其中,i=1,2,…n

设网络的基宽向量为: 为节点的基宽度参数,且为大于零的数。网络的权向量为: k时刻网络的输出为: 设理想输出为y(k),则性能指标函数为:

根据梯度下降法,输出权、节点中心及节点基宽参数的迭代算法如下:

其中, 为学习速率, 为动量因子。 阵(即为对象的输出对控制输入的灵敏度信息)算法为: 其中取 。

7.3.3 RBF网络逼近仿真实例 使用RBF网络逼近下列对象: RBF网络逼近程序见chap7_3.m。

7.4 回归神经网络 对角回归型神经网络(DRNN:Diagonal Recurrent Neural Network)是具有反馈的动态神经网络,该网络能够更直接更生动地反映系统的动态特性,它在BP网络基本结构的基础上,通过存储内部状态使其具备映射动态特征的功能,从而使系统具有适应时变特性的能力,DRNN网络代表了神经网络建模和控制的方向。

7.4.1 DRNN网络结构 DRNN网络是一种三层前向网络,其隐含层为回归层。正向传播是输入信号从输入层经隐层传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。反向传播就是将误差信号(理想输出与实际输出之差)按联接通路反向计算,由梯度下降法调整各层神经元的权值和阈值,使误差信号减小。 DRNN网络结构如图7-18所示。

图7-18 DRNN神经网络结构

在该网络中, 设 为网络输入向量, 为输入层第 i个神经元的输入,网络回归层第 j 个神经元的输出为 , 为第 个回归神经元输入总和, 为S函数, 为 DRNN网络的输出。 和 为网络回归层和输出层的权值向量, 为网络输入层的权值向量。

7.4.2 DRNN网络的逼近 DRNN网络逼近的结构如图7-19所示,图中k为网络的迭代步骤,u(k)和y(k)为辨识器的输入。DRNN为网络辨识器。y(k)为被控对象实际输出,ym(k)为DRNN的输出。将系统输出y(k)及输入u(k)的值作为辨识器DRNN的输入,将系统输出与网络输出的误差作为辨识器的调整信号。

图7-19 DRNN神经网络逼近

网络输出层的输出为 网络回归层的输出为 网络回归层的输入为

逼近误差为: 性能指标函数为: 学习算法采用梯度下降法

其中回归层神经元取双函数为 其中, 分别为输入层、回归层和输出层的学习速率, 为惯性系数。

7.4.3 DRNN网络逼近仿真实例 使用DRNN网络逼近下列对象: DRNN网络逼近程序见chap7_4.m。