CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING

Slides:



Advertisements
Similar presentations
一、 一阶线性微分方程及其解法 二、 一阶线性微分方程的简单应用 三、 小结及作业 §6.2 一阶线性微分方程.
Advertisements

第五节 函数的微分 一、微分的定义 二、微分的几何意义 三、基本初等函数的微分公式与微分运算 法则 四、微分形式不变性 五、微分在近似计算中的应用 六、小结.
目录 上页 下页 返回 结束 习题课 一、导数和微分的概念及应用 二、导数和微分的求法 导数与微分 第二章.
2.8 函数的微分 1 微分的定义 2 微分的几何意义 3 微分公式与微分运算法则 4 微分在近似计算中的应用.
2.5 函数的微分 一、问题的提出 二、微分的定义 三、可微的条件 四、微分的几何意义 五、微分的求法 六、小结.
第三节 微分 3.1 、微分的概念 3.2 、微分的计算 3.3 、微分的应用. 一、问题的提出 实例 : 正方形金属薄片受热后面积的改变量.
第四章 汇率与汇率制度 第一节 外汇与汇率 一、外汇 (一)外汇有狭义与广义之分
一、能线性化的多元非线性回归 二、多元多项式回归(线性化)
資料探勘(Data Mining)及其應用之介紹
智慧型系統在知識管理之應用 報告人:陳隆輝 高雄師範大學事業經營學系.
《高等数学》(理学) 常数项级数的概念 袁安锋
第23章 類神經網路 本章的學習主題  1.類神經網路的基本概念 2.類神經網路之應用 3.倒傳遞類神經網路
-Artificial Neural Network- Hopfield Neural Network(HNN) 朝陽科技大學 資訊管理系 李麗華 教授.
例题 教学目的: 微积分基本公式 教学重点: 牛顿----莱布尼兹公式 教学难点: 变上限积分的性质与应用.
第五节 微积分基本公式 、变速直线运动中位置函数与速度 函数的联系 二、积分上限函数及其导数 三、牛顿—莱布尼茨公式.
第二节 微积分基本公式 1、问题的提出 2、积分上限函数及其导数 3、牛顿—莱布尼茨公式 4、小结.
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
2-7、函数的微分 教学要求 教学要点.
§5 微分及其应用 一、微分的概念 实例:正方形金属薄片受热后面积的改变量..
数据挖掘原理与SPSS Clementine应用宝典
深層學習 暑期訓練 (2017).
Visualizing and Understanding Neural Machine Translation
-Artificial Neural Network- Adaline & Madaline
Signals and Systems Lecture 28
Introduction To Mean Shift
第四章 人工智慧演算法 2018/9/19.
第2章 Z变换 Z变换的定义与收敛域 Z反变换 系统的稳定性和H(z) 系统函数.
公路運輸業之經營與管理 公路運輸業分類 公路運輸業之權利與義務 汽車運輸業之營運 汽車運輸業之監督與管理 公路運輸費率 公路監理
第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.
Source: IEEE Access, vol. 5, pp , October 2017
§3.7 热力学基本方程及麦克斯韦关系式 热力学状态函数 H, A, G 组合辅助函数 U, H → 能量计算
Advanced Artificial Intelligence
神经计算 神经计算 史忠植 中国科学院计算技术研究所
Windows网络操作系统管理 ——Windows Server 2008 R2.
第十章 智慧型決策支援系統.
计算机数学基础 主讲老师: 邓辉文.
Introduction to AI and ML
Online job scheduling in Distributed Machine Learning Clusters
Ch 08.多层神经网络 1.
数据挖掘工具性能比较.
神经信息学 自组织网络 ——自组织映射 史忠植 中科院计算所 2019/2/2.
神经网络算法的研究与应用 数学建模小学期小组作业 理学院 信息与计算科学 2018年07月06日 学院: 专业: 组员: 日期:
類神經網路簡介 B 朱峰森 B 梁家愷.
第七章 参数估计 7.3 参数的区间估计.
第4章 非线性规划 4.5 约束最优化方法 2019/4/6 山东大学 软件学院.
习题 一、概率论 1.已知随机事件A,B,C满足 在下列三种情况下,计算 (1)A,B,C相互独立 (2)A,B独立,A,C互不相容
-Artificial Neural Network(ANN)- Self Organization Map(SOM)
抽样和抽样分布 基本计算 Sampling & Sampling distribution
第二十二章 曲面积分 §1 第一型曲面积分 §2 第二型曲面积分 §3 高斯公式与斯托克斯公式.
前向人工神经网络敏感性研究 曾晓勤 河海大学计算机及信息工程学院 2003年10月.
chapter 5 突触动力学Ⅱ—— 有监督学习
模型分类问题 Presented by 刘婷婷 苏琬琳.
概 率 统 计 主讲教师 叶宏 山东大学数学院.
§2.4 零输入响应和零状态响应 零输入响应 零状态响应 对系统线性的进一步认识.
5.2 常用统计分布 一、常见分布 二、概率分布的分位数 三、小结.
聚类 IRLAB.
专 业: 信号与信息处理 学生姓名: 杜 兰 任课老师: 高新波 二零零二年十二月
Neural Networks: Learning
成绩是怎么算出来的? 16级第一学期半期考试成绩 班级 姓名 语文 数学 英语 政治 历史 地理 物理 化学 生物 总分 1 张三1 115
李宏毅專題 Track A, B, C 的時間、地點開學前通知
相关与回归 非确定关系 在宏观上存在关系,但并未精确到可以用函数关系来表达。青少年身高与年龄,体重与体表面积 非确定关系:
一 测定气体分子速率分布的实验 实验装置 金属蒸汽 显示屏 狭缝 接抽气泵.
第一部分:概率 产生随机样本:对分布采样 均匀分布 其他分布 伪随机数 很多统计软件包中都有此工具 如在Matlab中:rand
April, Beijing 全局接种与个体保护对流行病传播的影响 许新建 上海大学数学系 上海大学系统科学研究所.
基于最大margin的决策树归纳 李 宁.
§5.2 抽样分布   确定统计量的分布——抽样分布,是数理统计的基本问题之一.采用求随机向量的函数的分布的方法可得到抽样分布.由于样本容量一般不止2或 3(甚至还可能是随机的),故计算往往很复杂,有时还需要特殊技巧或特殊工具.   由于正态总体是最常见的总体,故本节介绍的几个抽样分布均对正态总体而言.
第六章 自組性類神經網路 類神經網路.
§7.3 离散时间系统的数学 模型—差分方程 线性时不变离散系统 由微分方程导出差分方程 由系统框图写差分方程 差分方程的特点.
第三节 函数的微分 3.1 微分的概念 3.2 微分的计算 3.3 微分的应用.
第三章 从概率分布函数的抽样 (Sampling from Probability Distribution Functions)
Presentation transcript:

CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING NEURAL NETWORK & FUZZY SYSTEM CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING Wang Jun 2004.10 2019/5/1

什么是学习? 学习就是对信息进行编码 其目的就是通过向有限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。 三种学习方式: 2019/5/1

什么是学习? 三种学习方式: 2019/5/1

编码是学习?激励-响应 ?映射? 使用行为(behavioristic)编码准则,如果输入激励为 ,而响应为 ,则该系统对激励-响应 进行了学习。 输入输出对 表示函数 的一个样本,函数f将n维矢量X映射到p维矢量Y。 2019/5/1

怎么理解学习过程? 系统对函数进行了学习 若输入 系统就会得到响应 , 则表明系统近似或部分学习, 即系统把相似的输入映射为相似的输出 如果对所有的输入 都有响应 , 系统对函数进行了学习 若输入 系统就会得到响应 , 则表明系统近似或部分学习, 即系统把相似的输入映射为相似的输出 2019/5/1

学习就会发生改变? 改变1:样本数据改变系统参数,系统进行自适应或自组织的学习。 改变2:神经网络中突触(权值)改变,有时神经元改变。 改变的效果:当激励改变了记忆介质并使改变维持相当长一段时间后,我们就说系统学会了 。 2019/5/1

系统只能对无穷的样本模式环境中一小部分样本进行学习。 学习时量化必要性 系统只能对无穷的样本模式环境中一小部分样本进行学习。 系统的存储量是有限的,系统要有新的样本模式替换旧的样本模式。 2019/5/1

原型可以扩展以使矢量量子化均方误差最小或规则最优。可以估计样本模式的未知的概率分布(统计代表样本)。 量化定义 规则 把样本模式空间分成k个区域,某个突触点在其中移动时,系统进行学习。 原型可以扩展以使矢量量子化均方误差最小或规则最优。可以估计样本模式的未知的概率分布(统计代表样本)。 2019/5/1

描述样本模式在样本空间的分布概率密度函数未知,通过学习来估计。 无监督和有监督学习 区别? 描述样本模式在样本空间的分布概率密度函数未知,通过学习来估计。 无监督学习对分布不作任何假设,可利用信息最少。 其学习规则可用一阶差分或一阶微分方程来定义 2019/5/1

有监督学习特点? 假设样本模式分组结构或 性能 还依赖于每个学习样本的分组隶属度信息,即分成: 可以检查出“错误”信息。 优点:精确度较高。 假设样本模式分组结构或 性能 还依赖于每个学习样本的分组隶属度信息,即分成: 可以检查出“错误”信息。 优点:精确度较高。 2019/5/1

在神经网络中的区别 监督学习可利用突触值联系来估计依赖于未知均方性能的测度梯度,利用分组隶属度信息来确定误差信号以引导梯度下降。 无监督学习只能利用神经信号的局部信息来改变参数,只能自适应分样本模式,但依赖于未知概率密度函数。 2019/5/1

局部信息用处? 局部化使突触可以实时、异步地学习,不需要全局的误差信息 局部无监督突触把信号和信号联系起来形成共轭或相关学习定律 借助联想可进一步缩小函数空间 学习定律中只包含神经元、突触和噪声三项。 2019/5/1

四种无监督学习 信号Hebbian学习 微分Hebbian学习 竞争学习 微分竞争学习 2019/5/1

1、确定信号的Hebbian学习 局部神经信号: 若 ,第 个突触连接激活 若 ,第 个突触连接抑制 :单调非减函数,把激励 转化为有界信号 若 ,第 个突触连接激活 若 ,第 个突触连接抑制 :单调非减函数,把激励 转化为有界信号 2019/5/1

2、确定性的竞争学习Grossberg 用竞争信号调整‘信号-突触’的差分: 竞争可以归结为最近邻模式匹配的问题。 度量指示器函数: 2019/5/1

实际中, 是线性的,即, 输入模式矢量 就代表了神经元场 中的输出。此时,竞争学习准则就成为线性竞争学习准则: 若 , 输出的第 个神经元赢; =0 则输 实际中, 是线性的,即, 输入模式矢量 就代表了神经元场 中的输出。此时,竞争学习准则就成为线性竞争学习准则: 2019/5/1

3、确定性微分Hebbian学习(Kosko) 学习准则 信号速度: 2019/5/1

4、确定性的微分竞争学习 学习法则: 微分竞争,只有改变了才学习,速度 使局部奖惩强化。 线性微分竞争学习法则: 2019/5/1

随机非监督学习定律(噪声) 一般的情况 引理: 随机突触在平衡态振动,而且至少和驱动的噪声过程的振动的一样大,突触矢量 在每个t都振动,其平均值为一常数,即围绕常值 作布朗运动。 当突触停止运动,确定的Hebbian学习就出现了随机平衡 2019/5/1

随机竞争学习定律 用随机竞争信号 调制随机矢量差 并加上独立高斯白噪声矢量 来模型化那些未模型化的效应 线性竞争学习定律以X代替线性信号矢量 用随机竞争信号 调制随机矢量差 并加上独立高斯白噪声矢量 来模型化那些未模型化的效应 线性竞争学习定律以X代替线性信号矢量 2019/5/1

离散随机差分方程系统 常用竞争学习算法作为离散随机差分方程系统 2019/5/1

非监督学习NN实例 神经网络基本模型 自组织映射系统SOM Neural Gas network 聚类应用 2019/5/1

神经元建模 一组突触和联结,联结具有权值 W1, W2, …, Wm 通过加法器功能,计算输入的权值 激励函数限制神经元输出的幅度 2019/5/1

神经元(信息处理单元) b v y x1 x2 xm w2 wm w1 Bias Activation Local Field Output Input signal Synaptic weights Summing function Bias b Activation Local Field v Output y x1 x2 xm w2 wm w1 2019/5/1

感知机 Activation Function 或 weights nodes I1 W1 I1 W1 W2 W2 O I2 O I2 W3 2019/5/1

单层前向 Input layer of source nodes Output layer of neurons 2019/5/1

多层前向 Input layer Output layer Hidden Layer 2019/5/1

自组织映射系统 Kohonen非监督随机系统 邻近的各个神经元之间通过相互的侧向交互作用,从而产生相竞争的过程,自适应地形成了针对特殊信息的组织结构。 2019/5/1

Topographic map reflects distribution of input vectors 2019/5/1

神经元j,它的外部输入信号Ij: 它的输出Yj的活动可用微分方程表示: 随外部输入,神经元权系数自适应变化---自学习过程, 和输出外部输入权系数有关系: 2019/5/1

调整权系数Wij,使神经网络收敛于一种表示形态,一个神经元只对某种输入模式特别匹配或特别敏感。 --使神经元的权系数的形态表示可以间接模仿输入的信号模式。 SOM的学习算法由两部分组成: 1.最优匹配神经元的选择 2.网络中权系数的自组织过程 2019/5/1

LVQ network ws stimulus vector v mapped onto neuron: v S Input nodes Neuron s Output Layer of neurons stimulus vector v mapped onto neuron: v S =argmin distance(v,ws) neuron s is called winner or best matching unit 2019/5/1

=argmin distance(v,wi) Neural Gas network Input nodes (wi) si Output Layer of Neurons (Si ,i=1~m) V: data vectors mapped onto neurons s: V S =argmin distance(v,wi) an v Sr, wr & all wi of Sr neighbors move towards v 2019/5/1

Neural Gas network Wi k+1=Wi k + Wi How wr & all wi of neighbors move towards v ? Update rule in each neuron: Wi k+1=Wi k + Wi Neibourhood function: 2019/5/1

实例 聚类应用 2019/5/1

实例 聚类应用 1) iris data Errors Error rate 2) simulated Errors Error rate PAM 15 10.0% SOM 16 10.7% Neural Gas 16 10.7% 2) simulated Errors Error rate PAM 0 0% SOM 30 20% Neural Gas 0 0% 2019/5/1