第十章 SOFM神经网络 北京科技大学 信息工程学院 付冬梅

Slides:



Advertisements
Similar presentations
第五节 函数的微分 一、微分的定义 二、微分的几何意义 三、基本初等函数的微分公式与微分运算 法则 四、微分形式不变性 五、微分在近似计算中的应用 六、小结.
Advertisements

2.8 函数的微分 1 微分的定义 2 微分的几何意义 3 微分公式与微分运算法则 4 微分在近似计算中的应用.
§3.4 空间直线的方程.
3.4 空间直线的方程.
《解析几何》 乐山师范学院 0 引言 §1 二次曲线与直线的相关位置.
4.1竞争学习的概念与原理 4.2自组织特征映射神经网络
第四章 函数的积分学 第六节 微积分的基本公式 一、变上限定积分 二、微积分的基本公式.
第5章 定积分及其应用 基本要求 5.1 定积分的概念与性质 5.2 微积分基本公式 5.3 定积分的换元积分法与分部积分法
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
第九章  Elman网络与学习算法 北京科技大学 信息工程学院 付冬梅
探索三角形相似的条件(2).
-Artificial Neural Network- Adaline & Madaline
Introduction To Mean Shift
第三章 多维随机变量及其分布 §2 边缘分布 边缘分布函数 边缘分布律 边缘概率密度.
Overview of Python Visualization Tools
物体识别 3D建图 semantic mapping
李杰 首都经济贸易大学 安全与环境工程学院 个人主页:
第五章 BP网络 北京科技大学 信息工程学院 付冬梅
数学模型实验课(三) 插值与三维图形.
第十章 方差分析.
实验六 积分器、微分器.
神经信息学 自组织网络 ——自组织映射 史忠植 中科院计算所 2019/2/2.
整合思维导图的初中英语教学设计 主讲人:卢璐.
用event class 从input的root文件中,由DmpDataBuffer::ReadObject读取数据的问题
双曲线的简单几何性质 杏坛中学 高二数学备课组.
類神經網路簡介 B 朱峰森 B 梁家愷.
第8章 静电场 图为1930年E.O.劳伦斯制成的世界上第一台回旋加速器.
使用矩阵表示 最小生成树算法.
2.1.2 空间中直线与直线 之间的位置关系.
宁波市高校慕课联盟课程 与 进行交互 Linux 系统管理.
宁波市高校慕课联盟课程 与 进行交互 Linux 系统管理.
线段的有关计算.
模型分类问题 Presented by 刘婷婷 苏琬琳.
概 率 统 计 主讲教师 叶宏 山东大学数学院.
线 性 代 数 厦门大学线性代数教学组 2019年4月24日6时8分 / 45.
5.2 常用统计分布 一、常见分布 二、概率分布的分位数 三、小结.
3.3 垂径定理 第2课时 垂径定理的逆定理.
用计算器开方.
6.4 你有信心吗?.
成绩是怎么算出来的? 16级第一学期半期考试成绩 班级 姓名 语文 数学 英语 政治 历史 地理 物理 化学 生物 总分 1 张三1 115
第4章 Excel电子表格制作软件 4.4 函数(一).
第三章 从概率分布函数的抽样 (Sampling from Probability Distribution Functions)
复习: 若A(x1,y1,z1) , B(x2,y2,z2), 则 AB = OB - OA=(x2-x1 , y2-y1 , z2-z1)
正切函数的图象和性质 周期函数定义: 一般地,对于函数 (x),如果存在一个非零常数T,使得当x取定义域内的每一个值时,都有
§6.7 子空间的直和 一、直和的定义 二、直和的判定 三、多个子空间的直和.
3.1.2 空间向量的数量积运算 1.了解空间向量夹角的概念及表示方法. 2.掌握空间向量数量积的计算方法及应用.
_13简单的GDI绘图操作 本节课讲师——void* 视频提供:昆山爱达人信息技术有限公司 官网地址:
一 测定气体分子速率分布的实验 实验装置 金属蒸汽 显示屏 狭缝 接抽气泵.
第4课时 绝对值.
§ 正方形练习⑵ 正方形 本资料来自于资源最齐全的21世纪教育网
多层循环 Private Sub Command1_Click() Dim i As Integer, j As Integer
学习任务三 偏导数 结合一元函数的导数学习二元函数的偏导数是非常有用的. 要求了解二元函数的偏导数的定义, 掌握二元函数偏导数的计算.
魏新宇 MATLAB/Simulink 与控制系统仿真 魏新宇
第一部分:概率 产生随机样本:对分布采样 均匀分布 其他分布 伪随机数 很多统计软件包中都有此工具 如在Matlab中:rand
《工程制图基础》 第五讲 投影变换.
蔡世民 合作者:禚钊,傅忠谦,张捷 电子科学与技术系 中国科学技术大学 2011/4/29
GIS基本功能 数据存储 与管理 数据采集 数据处理 与编辑 空间查询 空间查询 GIS能做什么? 与分析 叠加分析 缓冲区分析 网络分析
高中数学必修 平面向量的基本定理.
C++语言程序设计 C++语言程序设计 第一章 C++语言概述 第十一组 C++语言程序设计.
第四节 向量的乘积 一、两向量的数量积 二、两向量的向量积.
第三章 从概率分布函数的抽样 (Sampling from Probability Distribution Functions)
找 因 数.
1.2轴对称的性质 八 年 级 数 学 备 课 组.
第8章 创建与使用图块 将一个或多个单一的实体对象整合为一个对象,这个对象就是图块。图块中的各实体可以具有各自的图层、线性、颜色等特征。在应用时,图块作为一个独立的、完整的对象进行操作,可以根据需要按一定比例和角度将图块插入到需要的位置。 2019/6/30.
位似.
§4.5 最大公因式的矩阵求法( Ⅱ ).
生活中的几何体.
§2 自由代数 定义19.7:设X是集合,G是一个T-代数,为X到G的函数,若对每个T-代数A和X到A的函数,都存在唯一的G到A的同态映射,使得=,则称G(更严格的说是(G,))是生成集X上的自由T-代数。X中的元素称为生成元。 A变, 变 变, 也变 对给定的 和A,是唯一的.
第三章 图形的平移与旋转.
Presentation transcript:

第十章 SOFM神经网络 北京科技大学 信息工程学院 付冬梅 fdm2003@163.com 62334967 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 自组织竞争神经网络类型 自适应共振理论(Adaptive Resonance Theory,ART)网络 自组织特征映射(self-Organizing Map,SOM)网络 对传(Counter Propagation,CP)网络 协同神经网络(Synergetic Neural Network.SNN) 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 由芬兰学者Teuvo Kohonen于1981年提出。 基本上为输入层和映射层的双层结构,映射层的神经元互相连接,每个输出神经元连接至所有输入神经元 。 I’m Teuvo Kohonen 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 神经网络系统中的一个主要特点是它具有学习功能。通过学习它可以提取一组数据中的重要特征或找出其内在规律和本质属性(如分布特征,或按某种特征聚类),不断调整本身的学习过程,通常把网络的这种功能称为自学习或自组织功能。这种无教师监督,能自动的向环境学习,并根据学习所得到的重要特征来记忆知识的网络统称为自组织神经网络。 自组织特征映射(SOFM, Self-Organizing Feature Map)是芬兰学者Kohonen提出的一种神经网络模型,它模拟了哺乳动物大脑皮质神经的侧抑制、自组织等特性,1984年Kohonen将芬兰语音精确地组织为因素图,1986年又将运动指令组织成运动控制图,由于这些成功应用使SOFM引起世人的高度重视,形成一类很有特色的无师训练神经网络模型。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 SOFM网络的思想来源 SOFM网络的结构模型 SOFM神经元的基本功能函数 SOFM的基本学习算法 仿真实例 几点注意事项 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.1 SOFM网络的思想来源 人脑的自组织性 自组织特征映射的思想来源有两个方面 人脑的矢量量化 尽管目前人们对脑细胞如何组织来协调处理复杂信息的过程和机理还不十分清楚,但已有以下几点共识: (1)原始信息如一句话、一个图形是多维信号,图形可看成一个二维点阵加上三原色颜色等分量。脑皮层尽管有许多沟回,但本质上是一个二维平面的拓扑变形,脑皮层的每个细胞可视作二维平面上一个点。多维信号传递到脑皮层的过程可视作高维空间信号到二维空问信号的降维映射,降维过程去掉了原始信号的次要特征,保留了其主要特征。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 (2)信号空间 中具有相近特征的信号被映射到脑皮层中相近区域时,大致保留了信号在 中的概率分布特征及拓扑结构特征,即大脑有自动归类能力,将信号物以类聚。 (3) 以响应最强的一个神经元为中心,形成一个区域,大致来说,中心强度大,离中心越远越弱。 (4)神经细胞之间有侧抑制,存在竞争。这种竞争是通过反馈实现的,对自己给予最大正反馈,对邻居给予一定正反馈,对远处的细胞则给予负反馈即抑制。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 图10.1是反馈强度的示意图,平面上细胞按离中心神经元j的距离分成三个区域:①近距离的侧激励区;②稍远一些有一个抑制作用的环形区域;③环外是一个弱激励区,在初步分析时可忽略。图10.2用黑点大小表示侧激励区各神经细胞兴奋的强弱。 图10.1 侧抑制作用示意圈 图10.2 气泡示意图 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 人脑的矢量量化 矢量量化是20世纪80年代提出的一种数据压缩方法,广泛用于语音及图像数据的传输,其基本思想是将输入空间划分成多个不相交的超多面体,每个超多面体可称为一个区域,每个区域中选一个代表点,称为码本向量,这样凡同一区域的点均用码本向量来表示,数据可大大压缩。如何根据信号的特点来划分区域,如何由代表点重构信号(语音、图象)而不致与原信号失真等问题,本课堂不计划详述,感兴趣的同学可以参考有关文献。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.2 SOFM网络的结构模型 最初的自组织特征映射是一个单层网络(见图10.3)。各神经元处在一个平面上,一般用矩形或六边形等排列方式。输入端处于平面之外的下侧,每个输入端口与所有神经元均有连接,称为前向权,它们可以迭代调整。在神经元平面上侧,实际上每个神经元还有一个输出端,不再画出,平面上各单元采用全连接,称为侧向权,以构成抑制引起竞争。为了图形的清晰,图3未画出侧向权。侧向抑制机制是通过邻域和学习因子实现的,具体表现见后面的学习算法。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.2 SOFM网络的结构模型 竞争层 输入层 SOFM神经网络结构 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 图10.3 最初的SOFM网络结构示意图 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.3 SOFM神经元的基本功能函数 记 为j个输入端指向第i神经元的权,令 神经元i的输出可以采用两种方式: 1)内积形式 (10.1) 2)欧氏距离形式 (10.2) 采用这两种函数目的在于衡量输入矢量 与单位的权矢量 之 间匹配的程度,内积越大或距离 越小, 与 匹配程度越高。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 当所有的权与输入向量均归一化处理 , 后, 以上两种表示等价。简单证明如下: (10.3) 当所有的权与输入向量均归一化处理 , 后, 以上两种表示等价。简单证明如下: (10.3) 所以(10.2)的极小对应(10.1)的极大。不过归一化处理后。所有权向量都处在单位球面上,损失了一个维数。当权向量维数高的时候,这种损失对结果影响不会太大,如若维数低,则影响不能忽略,最好用不要归一化处理,直接用(10.2)式。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.4 SOFM的基本学习算法 1)以发出信号的神经元为圆心,对该神经元近邻的神经元的交互作用表现为兴奋性侧反馈; 2)以发出信号的神经元为圆心,对该神经元远邻的神经元的交互作用表现为抑制性侧反馈。 生物学上的近邻是指从发出信号的神经元为圆心.半径约为50—500µm左右的神经元;远邻是指半径为200µm—2mm左右的神经元。比远邻更远的神经元则表现的是弱激励作用。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 这种局部交互方式如图10.4所示。由于这种交互作用的曲线类似于墨西哥人带的帽子,所以也称这种交互方式为“墨西哥帽”。 图10.4 墨西哥帽示意图 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 无教师学习 学习是无师的,其目的是调整前向权,但调整过程也体现了侧抑制作用。学习算法步骤如下: Step1 权值初始化,将每个 赋以一个小的随机值 。 Step2 输入训练样本矢量 ,令t=0。 Step3 用公式(10.2)计算 与所有前向权量矢量之间的距离 Step4 选择获胜单元c,使 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 Step5 调整 式中 是学习因子,随时间而递减,范围 , 是c的领域,其半径随t而减小。 Step6 令t:=t+1转Step3。 Step7 当 时,停止对当前样本的学习,转Step2。 Step8 重复Step2~Step7,直至所有样本使用完毕。 Step5 调整 式中 是学习因子,随时间而递减,范围 , 是c的领域,其半径随t而减小。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 关于学习率函数 的选择。原则上可选一个单调下降函数,至于是线性下降还是负指数下降没有硬性规定,只有一些经验法则。如采用线性下降函数,根据Konhonen本人的经验,前10000步下降要快。后10000步下降要慢。 关于领域 的形状及收缩规律,也只有经验法则。形状一般取矩形、六边形或圆形。为简单起见半径 的缩小可采用线性下降函数,但注意不要下降到0。如果 <1 ,则退化为独活型竞争。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 图10.5是两种形状领域的逐步缩小示意图。 图10.5 领域逐步缩小示意图 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 关于学习率 和领域 大小的一种统一考虑如下:取 式中 是常数, 是t的单减函数,常数 , 关于学习率 和领域 大小的一种统一考虑如下:取 式中 是常数, 是t的单减函数,常数 , 是第i个神经元在平面上的坐标, 是获胜 单元c在平面上的坐标。这种处理方法实际上是以全部神经 元位领域,只不过离c远的地方学习率很小可以忽略罢了。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.5 MATLAB中SOFM网络的重要函数和基本功能 函 数 名 功 能 newsom() 功 能 newsom() 创建一个自组织特征映射神经网络 plotsom() 绘制自组织特征映射网络的权值矢量 vec2ind() 将单值矢量组变换成下标矢量 compet() 竞争传输函数 midpoint() 中点权值初始化函数 learnsom() 自组织特征映射权值学习规则函数 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.5 MATLAB中SOFM网络的重要函数和基本功能 newsom() 功能 创建一个自组织特征映射网络函数 功能 创建一个自组织特征映射网络函数 格式 net = newsom(PR,[D1,D2,...],TFCN,DFCN,OLR,OSTEPS,TLR,TND) 说明 net为生成的新BP神经网络;PR为网络输入矢量取值范围的矩阵[Pmin Pmax];[D1,D2,...]为神经元在多维空间中排列时各维的个数;TFCN为拓扑函数,缺省值为hextop;DFCN为距离函数,缺省值为linkdist;OLR为排列阶段学习速率,缺省值为0.9;OSTEPS为排列阶段学习次数,缺省值为1000;TLR为调整阶段学习速率,缺省值为0.02,TND为调整阶段领域半径,缺省值为1。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.5 MATLAB中SOFM网络的重要函数和基本功能 plotsom() 功能 绘制自组织特征映射网络图的权值向量函数 格式 (1) plotsom(pos) (2) plotsom(W,D,ND) 说明 式中pos是网络中各神经元在物理空间分布的位置坐标矩阵;函数返回神经元物理分布的拓扑图,图中每两个间距小于1的神经元以直线连接;W为神经元权值矩阵;D为根据神经元位置计算出的间接矩阵;ND为领域半径,缺省值为1;函数返回神经元权值的分布图,图中每两个间距小于ND的神经元以直线连接。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.5 MATLAB中SOFM网络的重要函数和基本功能 yec2ind() 功能 将单值向量组变换成下标向量 功能 将单值向量组变换成下标向量 格式 ind = vec2ind(vec) 说明 式中,vec为m行n列的向量矩阵x,x中的每个列向量i,除包含一个1外,其余元素均为0, ind为n个元素值为1所在的行下标值构成的一个行向量。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.5 MATLAB中SOFM网络的重要函数和基本功能 compet() 功能 竞争传输函数。 格式 A = compet(N,FP) 说明 compet is a neural transfer function. Transfer functions calculate a layer's output from its net input. compet(N,FP) takes N and optional function parameters, N:S x Q matrix of net input (column) vectors FP:Struct of function parameters (ignored) 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.5 MATLAB中SOFM网络的重要函数和基本功能 midpoint() 功能 中点权值初始化函数。 格式 W = midpoint(S,PR) 说明 midpoint is a weight initialization function that sets weight (row) vectors to the center of the input ranges. midpoint(S,PR) takes two arguments, S: Number of rows (neurons) PR:R x Q matrix of input value ranges = [Pmin Pmax] and returns an S x R matrix with rows set to (Pmin+Pmax)'/2. 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.5 MATLAB中SOFM网络的重要函数和基本功能 learnsom() 功能 自组织特征映射权值学习规则函数。 格式 [dW,LS] = learnsom(W,P,Z,N,A,T,E,gW, gA,D,LP,LS) 说明 W:S x R weight matrix (or S x 1 bias vector) P:R x Q input vectors (or ones(1,Q)) Z:S x Q weighted input vectors N:S x Q net input vectors A:S x Q output vectors T:S x Q layer target vectors E:S x Q layer error vectors gW:S x R weight gradient with respect to performance gA:S x Q output gradient with respect to performance D:S x S neuron distances LP:Learning parameters, none, LP = [] LS:Learning state, initially should be = [] dW:S x R weight (or bias) change matrix LS:New learning state 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.6 SOFM网络仿真实例 例2-5 人口分类是人口统计中的一个重要指标,现有1999共10个地区的人口出生比例情况如下: 出生男性百分比分别为: 0.5512 0.5123 0.5087 0.5001 0.6012 0.5298 0.5000 0.4965 0.5103 0.5003; 出生女性百分比分别为: 0.4488 0.4877 0.4913 0.4999 0.3988 0.4702 0.5000 0.5035 0.4897 0.4997 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.6 SOFM网络仿真实例 例1 源程序 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.6 SOFM网络仿真实例 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.6 SOFM网络仿真实例 类别5 类别4 类别3 类别1 类别2 测试数据属于类别5 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.6 SOFM网络仿真实例 用 个神经元的SOFM网络来学习单位正方形内均匀分布的训练数据。训练样本随机产生(见图10.6a),测试样本取单位正方形内均匀点阵(见图10.6b),用方法一测试结果见图10.6c。当输入测试向量(1,1)时,神经元11最活跃,而当输入测试向量(8,8)时,神经元(8,8)最活跃。显然(c)图与(b)图的概率分布及拓补结构特征完全一致。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 图10.7是同样数据的方法二测试结果, =100 , =500, 图10.7是同样数据的方法二测试结果, =100 , =500, =2000, =10000。可以看出,初始时随机分布的权到 迭代改进100步以后显现出初步规律,2000次后规律更加明 显,约10000次后权向量的概率分布及拓补结构就与测试数 据基本一致了。 图10.7 方法2显示结果 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 10.6 几点注意事项 (1)为使映射精确,迭代次数 要适当地大,据经验至少要 (1)为使映射精确,迭代次数 要适当地大,据经验至少要 等于神经元个数的500倍,但与 的维数无关。 (2)前1000步, 可以从一个接近1的数开始下降,下降率适 当大点,这个阶段可称之为有序化。在1000步以后减小下 降率,从 逐步下降为0,这个阶段可称为精调。 (3)邻域 太小则映射可能不是全局有序化的,会出现马 赛克效应,使本来应该映射到同一区域的却分别映射到几 个不相邻的小区域。前1000步 可线性缩小,精调时可保 持在适当小的数值上不变。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 关于SOFM,kohonen本人有几点评论,叙述如下: (3) SOFM的主要发展方向有两个:实行真正的分层结构,即若干层SOFM级联起来;将一个大的平面划分成不同的区域,每个区域用一种SOFM,每个区域对应不同的信号源,好像人类脑皮层不同区域分管视、听、嗅、味、触各种不同感觉一样。同时这些区域的边界不需要很清晰。 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 Mikkulainen构建的Dislex模型 2006-12-27 北京科技大学 自动化系 付冬梅

第十章 SOFM神经网络 Sardnet模型示意图 2006-12-27 北京科技大学 自动化系 付冬梅

本章结束,谢谢大家! 2006-12-27 北京科技大学 自动化系 付冬梅