神经计算 神经计算 史忠植 中国科学院计算技术研究所

Slides:



Advertisements
Similar presentations
期末考试作文讲解 % 的同学赞成住校 30% 的学生反对住校 1. 有利于培养我们良好的学 习和生活习惯; 1. 学生住校不利于了解外 界信息; 2 可与老师及同学充分交流有 利于共同进步。 2. 和家人交流少。 在寄宿制高中,大部分学生住校,但仍有一部分学生选 择走读。你校就就此开展了一次问卷调查,主题为.
Advertisements

2. 認知器 2.1 什麼是認知器 (Perceptrons)? 2.2 學習法則 (Learning algorithms) 2.3 轉移函數 2.4 範例.
Artificial Neural Network 人工神经网络.
Unsupervised feature learning: autoencoders
专题八 书面表达.
資料採礦與商業智慧 第四章 類神經網路-Neural Net.
How can we become good leamers
第9章 人工神經網絡 原理及應用 王海.
-Artificial Neural Network- Hopfield Neural Network(HNN) 朝陽科技大學 資訊管理系 李麗華 教授.
Chapter 8 Liner Regression and Correlation 第八章 直线回归和相关
Mode Selection and Resource Allocation for Deviceto- Device Communications in 5G Cellular Networks 林柏毅 羅傑文.
人工神经网络方法简介. 人工神经网络方法介绍 b 概况 b 原理及计算方法 b 气象中的应用.
XI. Hilbert Huang Transform (HHT)
CHT Project Progress Report
深層學習 暑期訓練 (2017).
Euler’s method of construction of the Exponential function
Visualizing and Understanding Neural Machine Translation
-Artificial Neural Network- Adaline & Madaline
Applications of Digital Signal Processing
Population proportion and sample proportion
第四章 人工智慧演算法 2018/9/19.
模式识别 Pattern Recognition
第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.
Source: IEEE Access, vol. 5, pp , October 2017
第 17 章 數位革命與 全球電子市場 © 2005 Prentice Hall.
第4章 网络互联与广域网 4.1 网络互联概述 4.2 网络互联设备 4.3 广域网 4.4 ISDN 4.5 DDN
创建型设计模式.
组合逻辑3 Combinational Logic
Area of interaction focus
Area of interaction focus
Advanced Artificial Intelligence
The role of leverage in cross-border mergers and acquisitions
Interval Estimation區間估計
塑膠材料的種類 塑膠在模具內的流動模式 流動性質的影響 溫度性質的影響
客户服务 询盘惯例.
神经信息学 自组织网络 ——自组织映射 史忠植 中科院计算所 2019/2/2.
句子成分的省略(1).
類神經網路簡介 B 朱峰森 B 梁家愷.
Version Control System Based DSNs
-Artificial Neural Network(ANN)- Self Organization Map(SOM)
Guide to a successful PowerPoint design – simple is best
前向人工神经网络敏感性研究 曾晓勤 河海大学计算机及信息工程学院 2003年10月.
3.5 Region Filling Region Filling is a process of “coloring in” a definite image area or region. 2019/4/19.
中国科学技术大学计算机系 陈香兰 2013Fall 第七讲 存储器管理 中国科学技术大学计算机系 陈香兰 2013Fall.
虚 拟 仪 器 virtual instrument
Neural Networks: Learning
Q & A.
计算机问题求解 – 论题1-5 - 数据与数据结构 2018年10月16日.
李宏毅專題 Track A, B, C 的時間、地點開學前通知
Efficient Query Relaxation for Complex Relationship Search on Graph Data 李舒馨
名词从句(2).
April, Beijing 全局接种与个体保护对流行病传播的影响 许新建 上海大学数学系 上海大学系统科学研究所.
(二)盲信号分离.
More About Auto-encoder
5. Combinational Logic Analysis
主要内容 什么是概念图? 概念图的理论基础 概念图的功能 概念地图的种类 如何构建概念图 概念地图的评价标准 国内外概念图研究现状
怎樣把同一評估 給與在不同班級的學生 How to administer the Same assessment to students from Different classes and groups.
Chapter 9 Validation Prof. Dehan Luo
神经网络 Statistical Learning 方匡南 厦门大学教授 博士生导师.
Class imbalance in Classification
簡單迴歸分析與相關分析 莊文忠 副教授 世新大學行政管理學系 計量分析一(莊文忠副教授) 2019/8/3.
Principle and application of optical information technology
之前都是分类的蒸馏很简单。然后从分类到分割也是一样,下一篇是检测的蒸馏
Unit 1 Book 8 A land of diversity
Gaussian Process Ruohua Shi Meeting
大腦的解題 ─神經網路簡介 陳慶瀚 機器智慧與自動化技術(MIAT)實驗室 義守大學電機系
BESIII MDC 模拟与调试 袁野 年粒子物理实验计算软件与技术研讨会 威海.
Hybrid fractal zerotree wavelet image coding
Presentation transcript:

神经计算 神经计算 史忠植 中国科学院计算技术研究所 shizz@ics.ict.ac.cn http://www.intsci.ac.cn/

内容提要 一、引言 二、神经计算 三、研究问题 四、结束语

引言

引言

引言 神经系统活动,不论是感觉、运动,还是脑的高级功能(如学习、记忆、情绪等)都有整体上的表现,面对这种表现的神经基础和机理的分析不可避免地会涉及各种层次。这些不同层次的研究互相启示,互相推动。在低层次(细胞、分子水平)上的工作为较高层次的观察提供分析的基础,而较高层次的观察又有助于引导低层次工作的方向和体现其功能意义。既有物理的、化学的、生理的、心理的分门别类研究,又有综合研究。

神经计算 神经计算就是通过对人脑的基本单元---神经元的建模和联结,来探索模拟人脑神经系统功能的模型,并研制一种具有学习、联想、记忆和模式识别等智能信息处理功能的人工系统。 系统结构 学习算法

神经计算 (2)所有定量或定性的信息都等势分布贮存于网络内的各神经元,故有很强的鲁棒性和容错性; (1)可以充分逼近任意复杂的非线性关系;     (2)所有定量或定性的信息都等势分布贮存于网络内的各神经元,故有很强的鲁棒性和容错性;     (3)采用并行分布处理方法,使得快速进行大量运算成为可能;     (4)可学习和自适应不知道或不确定的系统;     (5)能够同时处理定量、定性知识。

神经计算 50年代、60年代的代表性工作是Rosenblatt的感知机和Widrow的自适应性元件Adaline。 40年代心理学家Mcculloch和数学家Pitts合作提出的兴奋与抑制型神经元模型和Hebb提出的神经元连接强度的修改规则,他们的研究结果至今仍是许多神经网络模型研究的基础。 50年代、60年代的代表性工作是Rosenblatt的感知机和Widrow的自适应性元件Adaline。 1969年,Minsky和Papert合作发表了颇有影响的Perceptron一书,得出了消极悲观的论点,加上数字计算机正处于全盛时期并在人工智能领域取得显著成就,70年代人工神经网络的研究处于低潮。 80年代后,传统的Von Neumann数字计算机在模拟视听觉的人工智能方面遇到了物理上不可逾越的极限。与此同时,Rumelhart与Mcclelland以及Hopfield等人在神经网络领域取得了突破性进展,神经网络的热潮再次掀起。

神经计算 感知机 多层网络BP算法 Hopfield网络模型 自适应共振理论(ART) 自组织特征映射理论 Hinton 等人最近提出了 Helmboltz 机 徐雷提出的 Ying-Yang 机理论模型 甘利俊一( S.Amari) 开创和发展的基于统计流形的方法应用于人工神经网络的研究,

All neurons contain an activation function which determines whether the signal is strong enough to produce an output. Fig 4 shows several functions that could be used as an activation function.

感知机 Rosenblatt’s Perceptron: a network of processing elements (PE): Y1 Yp a1 am . . . - Notice that weights determine the amount with which each x affects each a. - The weights are updated via a learning rule at each iteration of input. - Notice that networks need NOT be fully connected as shown here. x1 x2 x3 xn . . .

感知机 Initial proposal of connectionist networks Rosenblatt, 50’s and 60’s Essentially a linear discriminant composed of nodes, weights I1 W1 I1 W1 or W2 W2 O I2 O I2 W3 W3 I3 I3 Activation Function 1

感知机 Additional layer(s) can be added: Y1 Yp a1 am . . . h1 hm . . . x1 - We can add an arbitrary number of hidden layers. - Additional hidden layers tend to increase the ability of the network to learn complex functions, but also increase learning times required. h1 hm . . . x1 x2 x3 xn . . .

感知机 2 .5 .3 =-1 1 2(0.5) + 1(0.3) + -1 = 0.3 , O=1 Learning Procedure: Randomly assign weights (between 0-1) Present inputs from training data Get output O, nudge weights to gives results toward our desired output T Repeat; stop when no errors, or enough epochs completed

We want to minimize the LMS: 最小均方学习方法 LMS = Least Mean Square learning Systems, more general than the previous perceptron learning rule. The concept is to minimize the total error, as measured over all training examples, P. O is the raw output, as calculated by E.g. if we have two patterns and T1=1, O1=0.8, T2=0, O2=0.5 then D=(0.5)[(1-0.8)2+(0-0.5)2]=.145 We want to minimize the LMS: C-learning rate E W(old) W(new) W

激励函数 To apply the LMS learning rule, also known as the delta rule, we need a differentiable activation function. Old: New:

反传网络 Attributed to Rumelhart and McClelland, late 70’s To bypass the linear classification problem, we can construct multilayer networks. Typically we have fully connected, feedforward networks. Input Layer Output Layer Hidden Layer I1 O1 H1 I2 H2 O2 I3 1 Wj,k Wi,j 1 1’s - bias

反传学习 Learning Procedure: Randomly assign weights (between 0-1) Present inputs from training data, propagate to outputs Compute outputs O, adjust weights according to the delta rule, backpropagating the errors. The weights will be nudged closer so that the network learns to give the desired output. Repeat; stop when no errors, or enough epochs completed

反传 – 权值修改 We had computed: For the Output unit k, f(sum)=O(k). For the output units, this is: For the Hidden units (skipping some math), this is: I H O Wi,j Wj,k

Hopfield 网络 Every node is connected to every other nodes Weights are symmetric Recurrent network State of the net is given by the vector of the node outputs (x1, x2, x3)

自组织特征映射-SOM Kohonen (1982, 1984) In biological systems cells tuned to similar orientations tend to be physically located in proximity with one another microelectrode studies with cats Orientation tuning over the surface forms a kind of map with similar tunings being found close to each other topographic feature map Train a network using competitive learning to create feature maps automatically

学习算法 Decreasing the neighbor ensures progressively finer features are encoded gradual lowering of the learn rate ensures stability

特 点 Kohonen’s algorithm creates a vector quantizer by adjusting weight from common input nodes to M output nodes Continuous valued input vectors are presented without specifying the desired output After the learning, weight will be organized such that topologically close nodes are sensitive to inputs that are physically similar Output nodes will be ordered in a natural manner