Presentation is loading. Please wait.

Presentation is loading. Please wait.

CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING

Similar presentations


Presentation on theme: "CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING"— Presentation transcript:

1 CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING
NEURAL NETWORK & FUZZY SYSTEM CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING Wang Jun 2019/5/1

2 什么是学习? 学习就是对信息进行编码 其目的就是通过向有限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。 三种学习方式: 2019/5/1

3 什么是学习? 三种学习方式: 2019/5/1

4 编码是学习?激励-响应 ?映射? 使用行为(behavioristic)编码准则,如果输入激励为 ,而响应为 ,则该系统对激励-响应 进行了学习。 输入输出对 表示函数 的一个样本,函数f将n维矢量X映射到p维矢量Y。 2019/5/1

5 怎么理解学习过程? 系统对函数进行了学习 若输入 系统就会得到响应 , 则表明系统近似或部分学习, 即系统把相似的输入映射为相似的输出
如果对所有的输入 都有响应 , 系统对函数进行了学习 若输入 系统就会得到响应 , 则表明系统近似或部分学习, 即系统把相似的输入映射为相似的输出 2019/5/1

6 学习就会发生改变? 改变1:样本数据改变系统参数,系统进行自适应或自组织的学习。 改变2:神经网络中突触(权值)改变,有时神经元改变。
改变的效果:当激励改变了记忆介质并使改变维持相当长一段时间后,我们就说系统学会了 。 2019/5/1

7 系统只能对无穷的样本模式环境中一小部分样本进行学习。
学习时量化必要性 系统只能对无穷的样本模式环境中一小部分样本进行学习。 系统的存储量是有限的,系统要有新的样本模式替换旧的样本模式。 2019/5/1

8 原型可以扩展以使矢量量子化均方误差最小或规则最优。可以估计样本模式的未知的概率分布(统计代表样本)。
量化定义 规则 把样本模式空间分成k个区域,某个突触点在其中移动时,系统进行学习。 原型可以扩展以使矢量量子化均方误差最小或规则最优。可以估计样本模式的未知的概率分布(统计代表样本)。 2019/5/1

9 描述样本模式在样本空间的分布概率密度函数未知,通过学习来估计。
无监督和有监督学习 区别? 描述样本模式在样本空间的分布概率密度函数未知,通过学习来估计。 无监督学习对分布不作任何假设,可利用信息最少。 其学习规则可用一阶差分或一阶微分方程来定义 2019/5/1

10 有监督学习特点? 假设样本模式分组结构或 性能 还依赖于每个学习样本的分组隶属度信息,即分成: 可以检查出“错误”信息。 优点:精确度较高。
假设样本模式分组结构或 性能 还依赖于每个学习样本的分组隶属度信息,即分成: 可以检查出“错误”信息。 优点:精确度较高。 2019/5/1

11 在神经网络中的区别 监督学习可利用突触值联系来估计依赖于未知均方性能的测度梯度,利用分组隶属度信息来确定误差信号以引导梯度下降。
无监督学习只能利用神经信号的局部信息来改变参数,只能自适应分样本模式,但依赖于未知概率密度函数。 2019/5/1

12 局部信息用处? 局部化使突触可以实时、异步地学习,不需要全局的误差信息 局部无监督突触把信号和信号联系起来形成共轭或相关学习定律
借助联想可进一步缩小函数空间 学习定律中只包含神经元、突触和噪声三项。 2019/5/1

13 四种无监督学习 信号Hebbian学习 微分Hebbian学习 竞争学习 微分竞争学习 2019/5/1

14 1、确定信号的Hebbian学习 局部神经信号: 若 ,第 个突触连接激活 若 ,第 个突触连接抑制 :单调非减函数,把激励 转化为有界信号
若 ,第 个突触连接激活 若 ,第 个突触连接抑制 :单调非减函数,把激励 转化为有界信号 2019/5/1

15 2、确定性的竞争学习Grossberg 用竞争信号调整‘信号-突触’的差分: 竞争可以归结为最近邻模式匹配的问题。 度量指示器函数:
2019/5/1

16 实际中, 是线性的,即, 输入模式矢量 就代表了神经元场 中的输出。此时,竞争学习准则就成为线性竞争学习准则:
若 , 输出的第 个神经元赢; =0 则输 实际中, 是线性的,即, 输入模式矢量 就代表了神经元场 中的输出。此时,竞争学习准则就成为线性竞争学习准则: 2019/5/1

17 3、确定性微分Hebbian学习(Kosko)
学习准则 信号速度: 2019/5/1

18 4、确定性的微分竞争学习 学习法则: 微分竞争,只有改变了才学习,速度 使局部奖惩强化。 线性微分竞争学习法则: 2019/5/1

19 随机非监督学习定律(噪声) 一般的情况 引理: 随机突触在平衡态振动,而且至少和驱动的噪声过程的振动的一样大,突触矢量 在每个t都振动,其平均值为一常数,即围绕常值 作布朗运动。 当突触停止运动,确定的Hebbian学习就出现了随机平衡 2019/5/1

20 随机竞争学习定律 用随机竞争信号 调制随机矢量差 并加上独立高斯白噪声矢量 来模型化那些未模型化的效应 线性竞争学习定律以X代替线性信号矢量
用随机竞争信号 调制随机矢量差 并加上独立高斯白噪声矢量 来模型化那些未模型化的效应 线性竞争学习定律以X代替线性信号矢量 2019/5/1

21 离散随机差分方程系统 常用竞争学习算法作为离散随机差分方程系统 2019/5/1

22 非监督学习NN实例 神经网络基本模型 自组织映射系统SOM Neural Gas network 聚类应用 2019/5/1

23 神经元建模 一组突触和联结,联结具有权值 W1, W2, …, Wm 通过加法器功能,计算输入的权值 激励函数限制神经元输出的幅度
2019/5/1

24 神经元(信息处理单元) b v y x1 x2 xm w2 wm w1 Bias Activation Local Field Output
Input signal Synaptic weights Summing function Bias b Activation Local Field v Output y x1 x2 xm w2 wm w1 2019/5/1

25 感知机 Activation Function 或 weights nodes I1 W1 I1 W1 W2 W2 O I2 O I2 W3
2019/5/1

26 单层前向 Input layer of source nodes Output layer of neurons 2019/5/1

27 多层前向 Input layer Output layer Hidden Layer 2019/5/1

28 自组织映射系统 Kohonen非监督随机系统
邻近的各个神经元之间通过相互的侧向交互作用,从而产生相竞争的过程,自适应地形成了针对特殊信息的组织结构。 2019/5/1

29 Topographic map reflects distribution of input vectors
2019/5/1

30 神经元j,它的外部输入信号Ij: 它的输出Yj的活动可用微分方程表示:
随外部输入,神经元权系数自适应变化---自学习过程, 和输出外部输入权系数有关系: 2019/5/1

31 调整权系数Wij,使神经网络收敛于一种表示形态,一个神经元只对某种输入模式特别匹配或特别敏感。
--使神经元的权系数的形态表示可以间接模仿输入的信号模式。 SOM的学习算法由两部分组成: 1.最优匹配神经元的选择 2.网络中权系数的自组织过程 2019/5/1

32 LVQ network ws stimulus vector v mapped onto neuron: v S
Input nodes Neuron s Output Layer of neurons stimulus vector v mapped onto neuron: v S =argmin distance(v,ws) neuron s is called winner or best matching unit 2019/5/1

33 =argmin distance(v,wi)
Neural Gas network Input nodes (wi) si Output Layer of Neurons (Si ,i=1~m) V: data vectors mapped onto neurons s: V S =argmin distance(v,wi) an v Sr, wr & all wi of Sr neighbors move towards v 2019/5/1

34 Neural Gas network Wi k+1=Wi k + Wi
How wr & all wi of neighbors move towards v ? Update rule in each neuron: Wi k+1=Wi k + Wi Neibourhood function: 2019/5/1

35 实例 聚类应用 2019/5/1

36 实例 聚类应用 1) iris data Errors Error rate 2) simulated Errors Error rate
PAM % SOM % Neural Gas % 2) simulated Errors Error rate PAM % SOM % Neural Gas % 2019/5/1


Download ppt "CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING"

Similar presentations


Ads by Google