第 5 章 径向基函数网络 中国科大 计算机学院 第 II 部分 人工神经网络.

Slides:



Advertisements
Similar presentations
一、 一阶线性微分方程及其解法 二、 一阶线性微分方程的简单应用 三、 小结及作业 §6.2 一阶线性微分方程.
Advertisements

第五节 函数的微分 一、微分的定义 二、微分的几何意义 三、基本初等函数的微分公式与微分运算 法则 四、微分形式不变性 五、微分在近似计算中的应用 六、小结.
2.8 函数的微分 1 微分的定义 2 微分的几何意义 3 微分公式与微分运算法则 4 微分在近似计算中的应用.
第七节 函数的微分 一 、微分 概念 二、微分的几何意义 三、 基本初等函数的微分公 式与 微分运算法则 四 、小结.
2.5 函数的微分 一、问题的提出 二、微分的定义 三、可微的条件 四、微分的几何意义 五、微分的求法 六、小结.
第二章 导数与微分. 二、 微分的几何意义 三、微分在近似计算中的应用 一、 微分的定义 2.3 微 分.
练一练: 在数轴上画出表示下列各数的点, 并指出这些点相互间的关系: -6 , 6 , -3 , 3 , -1.5, 1.5.
阻塞操作. 在 linux 里,一个等待队列由一个 wait_queue_head_t 类型的结构来描述 等待队列的初始化: static wait_queue_head_t testqueue; init_waitqueue_head(&testqueue);
營利事業所得稅查核準則 相關概念介紹 南區國稅局 新營分局 林俊標 各位學員大家好:
第三章 函数逼近 — 最佳平方逼近.
學 號:997I0010、997I0024 組 員:洪韋鈴、王婷婷 日 期: 指導老師:王立杰 老師
常用逻辑用语复习课 李娟.
公司法(六) 股份有限公司 1.
第二节 微积分基本公式 1、问题的提出 2、积分上限函数及其导数 3、牛顿—莱布尼茨公式 4、小结.
定积分的换元法 和分部积分法 换元公式 分部积分公式 小结 1/24.
第5章 定积分及其应用 基本要求 5.1 定积分的概念与性质 5.2 微积分基本公式 5.3 定积分的换元积分法与分部积分法
第三节 格林公式及其应用(2) 一、曲线积分与路径无关的定义 二、曲线积分与路径无关的条件 三、二元函数的全微分的求积 四、小结.
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
第九章  Elman网络与学习算法 北京科技大学 信息工程学院 付冬梅
第7章 典型神经网络 7.1 单神经元网络.
数据挖掘原理与SPSS Clementine应用宝典
第三章 多维随机变量及其分布 §2 边缘分布 边缘分布函数 边缘分布律 边缘概率密度.
矢量距离路由.
元素替换法 ——行列式按行(列)展开(推论)
第一单元 初识C程序与C程序开发平台搭建 ---观其大略
第五章 BP网络 北京科技大学 信息工程学院 付冬梅
第4章 非线性规划 一维搜索方法 2011年11月.
计算机数学基础 主讲老师: 邓辉文.
Introduction to AI and ML
Online job scheduling in Distributed Machine Learning Clusters
Ch 08.多层神经网络 1.
神经网络算法的研究与应用 数学建模小学期小组作业 理学院 信息与计算科学 2018年07月06日 学院: 专业: 组员: 日期:
使用矩阵表示 最小生成树算法.
第4章 非线性规划 4.5 约束最优化方法 2019/4/6 山东大学 软件学院.
C++语言程序设计 C++语言程序设计 第七章 类与对象 第十一组 C++语言程序设计.
简单介绍 用C++实现简单的模板数据结构 ArrayList(数组, 类似std::vector)
Partial Differential Equations §2 Separation of variables
第二十二章 曲面积分 §1 第一型曲面积分 §2 第二型曲面积分 §3 高斯公式与斯托克斯公式.
10.2 串联反馈式稳压电路 稳压电源质量指标 串联反馈式稳压电路工作原理 三端集成稳压器
顺序表的删除.
模型分类问题 Presented by 刘婷婷 苏琬琳.
线性规 Linear Programming
概 率 统 计 主讲教师 叶宏 山东大学数学院.
线 性 代 数 厦门大学线性代数教学组 2019年4月24日6时8分 / 45.
5.2 常用统计分布 一、常见分布 二、概率分布的分位数 三、小结.
聚类 IRLAB.
成绩是怎么算出来的? 16级第一学期半期考试成绩 班级 姓名 语文 数学 英语 政治 历史 地理 物理 化学 生物 总分 1 张三1 115
第4章 Excel电子表格制作软件 4.4 函数(一).
第三章 从概率分布函数的抽样 (Sampling from Probability Distribution Functions)
§6.7 子空间的直和 一、直和的定义 二、直和的判定 三、多个子空间的直和.
3.1 变化率与导数   3.1.1 变化率问题 3.1.2 导数的概念.
概 率 统 计 主讲教师 叶宏 山东大学数学院.
多层循环 Private Sub Command1_Click() Dim i As Integer, j As Integer
学习任务三 偏导数 结合一元函数的导数学习二元函数的偏导数是非常有用的. 要求了解二元函数的偏导数的定义, 掌握二元函数偏导数的计算.
第一部分:概率 产生随机样本:对分布采样 均匀分布 其他分布 伪随机数 很多统计软件包中都有此工具 如在Matlab中:rand
1.非线性规划模型 2.非线性规划的Matlab形式
分数再认识三 真假带分数的练习课.
第15讲 特征值与特征向量的性质 主要内容:特征值与特征向量的性质.
轴对称在几何证明及计算中的应用(1) ———角平分线中的轴对称.
正弦、余弦函数的性质 华容一中 伍立华 2017年2月24日.
§2 方阵的特征值与特征向量.
基于列存储的RDF数据管理 朱敏
第三章 从概率分布函数的抽样 (Sampling from Probability Distribution Functions)
教学大纲(甲型,54学时 ) 教学大纲(乙型, 36学时 )
线性规划 Linear Programming
§4.5 最大公因式的矩阵求法( Ⅱ ).
入侵检测技术 大连理工大学软件学院 毕玲.
第二次课后作业答案 函数式编程和逻辑式编程
§2 自由代数 定义19.7:设X是集合,G是一个T-代数,为X到G的函数,若对每个T-代数A和X到A的函数,都存在唯一的G到A的同态映射,使得=,则称G(更严格的说是(G,))是生成集X上的自由T-代数。X中的元素称为生成元。 A变, 变 变, 也变 对给定的 和A,是唯一的.
Presentation transcript:

第 5 章 径向基函数网络 中国科大 计算机学院 第 II 部分 人工神经网络

本章内容 Learning Vector Quantizer-II 径向基函数神经网络

LVQ-II LVQ-II 由 Kohonen 开发,使用从监督者得到的信息 来实现奖励或惩罚机制。 – 如果一个获胜单元正确地分类了输入模式,则修 改权值使其更好地匹配输入模式,即对该单元的 权值进行奖励。 – 如果一个获胜单元错误地分类了输入模式,则通 过使其权值远离输入向量,从而达到惩罚的效果。 对于 LVQ-II ,获胜输出单元 o k 的权值更新为:

本章内容 Learning Vector Quantizer-II 径向基函数神经网络

概述 1985 年, Powell 提出了多变量插值的径向基函数 (Radical Basis Function , RBF) 方法 1988 年, Moody 和 Darken 提出了一种神经网络结 构,即 RBF 神经网络 RBF 网络是一种三层前向网络,基本思想为: – 用 RBF 作为隐单元的 “ 基 ” 构成隐含层空间,将输入矢量直 接 ( 即不需要通过权连接 ) 映射到隐空间 – 当 RBF 的中心点确定后,映射关系也就确定 – 隐含层空间到输出空间的映射是线性的

概述 径向基神经网络的神经元结构 激活函数采用径向基函数 以输入和权值向量之间的 距离作为自变量

概述 正规化网络(隐层节点数与数据点数相同) 基函数线性函数

概述 广义的径向基函数 (RBF) 网络结构 ( 隐层节点数小于 与数据点数 ) 基函数 线性函数

模式可分性的 Cover 定理 当用径向基函数神经网络来解决个复杂的模式分类 任务时,问题的基本解决可以通过应 用非线性方式 将其变换到一个高维空间。 – 它的潜在合理性来自模式可分性的 Cover 定理。 Cover 定理可以定性地表述如下: – 将复杂的模式分类问题非线性地投射到高维空间 将比投射到低维空间更可能是线性可分的。

模式可分性的 Cover 定理 一维平面上的 5 个点的不同集合的 3 个例子

XOR 问题 在 XOR 问题中有四个二维输入空间卜的点 ( 模式 ) , (1, 1) , (0, 1) , (0, 0) 和 (1, 0) 。要求建一个模式分类 器产生二值输出响应,其中点 (1, 1) 或 (0, 0) 对应于输 出 0 ,点 (0, 1) 或 (1, 0) 对应于输出。 定义对 Gauss 函数如下.

XOR 问题

输入模式被映射到∅ - ∅平面上。

曲面的分离能力 Cover 定理的一个推论: – 一组随机指定的输入模式 ( 向量 ) 的集合在 m 1 维空 间中线性可分,它的元素数目的最大望等于 2m 1 。

径向基函数 一个径向基函数神经网络( Radial Basis Function Neural Networks , RBFNN )是一个 FFNN (前馈 神经网络),其隐层单元并不使用激活函数,而是 采用径向基函数。 – 径向基函数神经网络通过非正交、径向对称函数 的叠加来逼近期望函数。  径向基函数网络结构  径向基函数  训练算法  径向基函数网络的变体

径向基函数网络结构 径向基函数网络的结构

径向基函数网络结构 径向基函数网络与前馈神经网络的不同: ①隐层单元实现一个径向基函数  。每个隐层单元 的输出为: ②从输入单元到隐层单元的权值  ij ,表示隐层单 元 j 的径向基函数的中心。 ③一些径向基函数可由一个宽度  j 描述。对于这样 的基函数,从输入层的基单元到每一个隐层单 元的权值表示了基函数的宽度。注意输入单元 z I+1 具有 +1 的输入信号。

径向基函数网络结构 径向基函数网络的输出为: 径向基函数网络的输出是基函数的一个线性组合。 − 径向基函数的输出单元实现的是线性函数。 − 已经证明:径向基函数网络与前馈神经网络一样, 是一个通用逼近器。

径向基函数 每个隐层单元实现一个径向基函数。 – 这些函数又称为核函数,都是严格正、径向对称 的函数。 一个径向基函数( RBF : Radial Basis Functions ) 在其中心  j 有一个唯一的最大值,并且当远离中心时, 函数通常很快趋于 0 。 隐层单元的输出表明输入向量 z p 和基函数中心接近 的程度。

径向基函数 除了用函数中心表示外,一些 RBF 函数由一个宽度  j 描述。 – 宽度  j 指出了隐层单元 j 的输入空间中, RBF 接收 域的宽度。

常用的 RBF 函数 线性函数 立方体函数 薄板样条函数( Thin-plate-spline function ) 复二次函数

常用的 RBF 函数 逆复二次函数 高斯函数 Logistic 函数

RBF 对 RBFNN 性能的影响 径向基函数神经网络的正确率受下述因素影响: ①使用基函数的数目。使用的基函数越多,对目标 函数逼近的越好。然而,不必要的基函数会增加 计算复杂度。 ②对于每一个基函数,由中心向量  j 定义基函数的 位置。基函数应当均与分布并覆盖整个输入空间。 ③某些函数具有接收域宽度  j 。  j 越大,则由该基 函数所表述的输入空间越大。 因此, RBFNN 的训练应当考虑找出这些参数的最佳 值。

训练算法 分两类: – 固定中心算法,仅调整隐层单元和输出层之间的 权值。 – 自适应中心训练算法,对权值、中心和偏差均进 行调整。 1. 训练中心固定的 RBFNN 2. 使用梯度下降法训练 RBFNN 3. 两阶段 RBFNN 训练

训练中心固定的 RBFNN 从训练集中随机选择得到中心。 – 只要从训练集中均匀选取了足够数量的中心,就 可以得到输入空间的一个充分采样。 常用方法是首先选取足够多数量的中心,然后进行 训练,最后再对冗余的基函数进行裁剪。 – 仅删除那些不会造成正确率显著下降的 RFB 函数。

训练中心固定的 RBFNN // 训练一个固定中心的 RBFNN 1. 令 J 表示中心的个数; 2. 选择中心  j , j=1,…,J 为  j =z p, p~U(1, P T ) ; 3. 计算宽度  j , 4. 将所有 w kj, k=1,…,K, j=1,…,J 初始化为小的随机值; 5. 使用高斯径向基函数,计算每一个输出单元的值, 6. 对 k=1,…,K, ,求解网络权值。

训练中心固定的 RBFNN 求解网络权值:

使用梯度下降法训练 RBFNN 1. 选择中心的个数 J ; 2.for j=1, …, J do 3. p ~ U(1, P T ); 4.  j =z p ; 5. 6.end 7.for k=1, …, K do 8. for j=1, …, J do 9. w kj ~ U(w min, W max ) 10. end 11.end

使用梯度下降法训练 RBFNN 12.while 终止条件不满足 do 13. 选择一个输入模式, d p =(z p, t p ) ; 14. for k=1, …, K do 15. 计算 o k,p ; 16. for j=1, …, J do 17. 计算调整步长: 18. 使用下式调整权值: 19. end 20.end

使用梯度下降法训练 RBFNN 21. for j=1, …, J do 22. for i=1, …, I do 23. 计算中心步长: 24. 使用下式调整中心: 25. end 26. 计算宽度步长,并调整宽度: 27. end 28.end

两阶段 RBFNN 训练 为了减少训练时间, RBFNN 的训练可以分两个阶段 进行: ①中心  j 的非监督学习; ②使用梯度下降对隐层和输出层之间权值 w k 的监 督训练。

两阶段 RBFNN 训练 // 两阶段 RBFNN 训练算法 1. 初始化 w kj , k=1, …, K , j=1, …, J ; 2. 初始化  ji , j=1, …, J , i=1, …, I ; 3. 初始化  j , j=1, …, J ; 4.while LVQ-I 没有收敛 do 5. 应用 LVQ-1 的一步调整  ji , j=1, …, J ; 6. 调整  j , j=1, …, J ; 7.end 8.t=0; ……

两阶段 RBFNN 训练 …… 9.while 梯度下降并没有收敛 do 10. 选择一个输入模式 (z p, t p ) ; 11. 计算权值步长, 12. 调整权值, 13.end

两阶段 RBFNN 训练 在 LVQ-1 训练阶段之前, RBFNN 按下述方式进行初 始化: ①通过将所有的权值  ji 设为训练集中所有输入的平 均值,完成对中心的初始化。 ②通过将所有的  j 设为训练集上所有输入值的标准 差,完成对权值的初始化。 ③将隐层到输出层的权值 w kj 初始化为小的随机值。 在 LVQ-I 迭代的末尾,重新计算基函数的宽度:对 于每一个隐层单元,计算  j 和将  j 作为获胜者的输 入模式之间的欧式距离的平均值,并将宽度  j 设置 为该平均值。

其中, C j 是与中心  j 距离最近的模式的集合。 ③将训练模式重新划分到其距离最近的中心。转第 步,直到中心不再显著变化。 K-means 聚类后,将宽度计算为: 两阶段 RBFNN 训练 在第一阶段中,也可以使用 K-means 来进行聚类。 采用 K-means 的初始化过程: ①将每一个  j 设置为一个随机的输入模式。 ②将训练模式划分到其最近的中心,重设中心为:

径向基函数网络的变体 两类变体,旨在改进 RBFNN 的性能 ①归一化隐层单元激励 ②软竞争

归一化隐层单元激励 Moody 和 Darken 提出,隐层单元激励应当使用下式 进行归一化: 这种归一化代表了隐层单元 j 生成 z p 的条件概率:

软竞争 用 K-means 聚类可以看做是胜者全得行为的硬竞争。 一个输入模式被划分到与其距离最近的  j 的模式聚类。 接下来,  j 的调整仅基于这样的一些模式,这些模式 将  j 选为获胜者。 在软竞争中,所有输入向量对所有聚类的调整都有 影响。对于每一个隐层单元,有:

小结 LVQ-II – 了解 LVQ-I 和 LVQ-II 的不同 径向基函数神经网络 – 了解 RBFNN 的特点和训练方法

作业 1. 给出除 LVQ-1 以外的另一种计算输入层到隐层的权 值的方法。