第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.

Slides:



Advertisements
Similar presentations
中国石化股份公司济南分公司 中国石化集团济南资产分公司 (原济南炼油厂) 发挥实训基地作用 培养过硬技能人才.
Advertisements

执教 : 汪彩虹 班级 : 八 (2) 班. 梅 花 百合花 迎春花 什么花 最好吃? 一片草地? 爆竹声中 辞旧岁? 九九归一?
人的性别遗传 合肥市第四十九中学 丁 艳. 男女成对染色体排序图 1 、男性和女性各 23 对染色体有何异同 ? 哪 一对被称为性染色体 ? 2 、这两幅图中,哪幅 图显示的是男性的染色 体?哪幅图显示的是女 性染色体? 3 、图中哪条染色体是 Y 染色体?它与 X 染色体 在形态上的主要区别是.
年輕駕駛交通工具 考上駕照的 18 歲, 正好是高中畢業, 離家工作、上大學 的時候。 年輕人對新環境的 好奇及生疏,以及 尚未養成良好駕駛 習慣,造成意外的 產生。
优化备课和讲课 的思考 黄恕伯
Artificial Neural Network 人工神经网络.
報告人:朝陽科技大學保險金融管理系 施懿純 助理教授
1、一般地说,在生物的体细胞中, 和 都是成对存在的。
辨性别 A B. 辨性别 A B 第三节人类染色体与性别决定 昌邑市龙池初中 杨伟红 学习目标 1.理解人的染色体组成和传递规律。 2.解释人类性别决定的原理。 3.通过探究活动,解读数据了解生男生女的比例。
新編多元性向測驗 測驗說明 輔導室
在《命运交响曲》 音乐声中 安静我们的心 迎接挑战.
指導教授:陳牧言 老師 組員:資管四1 劉柏駿 陳柏村 蔡信宏 李志誠 洪聲甫 李紹剛
恒泰期货研究所2016年 期债暴跌告一段落,短期波动降低 国债期货周报
天府欧城“星光儿童乐园” ---项目计划书 此为机密文件。 天府欧城.
101年國中畢業生多元進路宣導 國中部註冊組 100年10月29日.
倒傳遞類神經網路 2006年3月14日星期二.
高中職優質化專題 教育研究博士班二年級 游宗輝.
关于在宝钢全体党员中开展“学党章党规、 学系列讲话,做合格党员”学习教育的 实施方案
海星國中部直升方案說明 報告人:教務處 陳博文主任
美國總統選舉制度 李姿緣 林雅湘.
101年度十二年國民基本教育 國民中學校長專業研習 校長落實補救教學、適性輔導 中輟生的預防與復學輔導之實務作為
歡迎各位老師 蒞校參訪 召集人、各位委員、同仁大家好,我是林淑玟,負責教務行政進行簡報 報告人:林淑玟 中華民國九十九年三月二十三日.
大學甄選入學 選填志願輔導說明會 曾文農工輔導室.
一所具有悠久歷史與優良傳統的 優質學校 強調生活教育與精緻教學 是您有心向學的最佳選擇.
诸葛亮广场.
國立嘉義高級工業職業學校 101年度綜合高中宣導研習 國立嘉義高工 教務主任 林章明
推行使用散装预拌砂浆 全面贯彻落实禁现政策
第9章 人工神經網絡 原理及應用 王海.
海軍軍官學校 士官二專班 招生簡報 、 第1頁,共30頁.
海軍軍官學校 士官二專班 103學年度 招生簡報.
。星。星。の。承。諾。 6年15班 7號 張靖旋 作者:不明.
1.1.2 四 种 命 题.
色 弱 與 色 盲.
主要内容 §6.1 系统预测概述 §6.2 物流系统需求预测的特征 §6.3 物流系统需求预测的方法 §6.4 基于神经网络的物流系统预测法
第六课 我们的 中华文化.
宠物之家 我的宠物性别? 雌(♀) or 雄(♂) 第一阶段:我的宠物我做主 第二阶段:宠物“相亲记” 第三阶段:家族诞生
第十一章 人工神经网络建模(Artificial Neuron Nets)
中学生心理健康讲座 打开心灵之门 开启阳光之路 主讲人:范荃.
霸气车辆.
-Artificial Neural Network- Adaline & Madaline
教育部宣導專員 國立臺中家商 許敏政主任 101年2月23日製作 #201~203
第四章 人工智慧演算法 2018/9/19.
第六章 计算智能 6.1 概述 6.2 神经计算 6.3 进化计算 6.4 模糊计算 6.5 粗糙集理论 6.6 其他.
Chapter 2 簡單迴歸模型.
2.4 BP神经网络模型与学习算法.
第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.
优化试验设计与数据分析 第五章 回归分析方法 本章主要内容 · 一元线性回归方程度建立、显著性检验、预报和控制。非线性回归方程的线性化。
Stochastic Relationships and Scatter Diagrams
第十一章. 簡單直線迴歸與簡單相關 Simple Linear Regression and Simple Correlation
Advanced Artificial Intelligence
第十章 智慧型決策支援系統.
人工智慧:學習.
信号与图像处理基础 Adaptive Filter 中国科学技术大学 自动化系 曹 洋.
國立豐原高級中學 104學年度家長代表大會 主持人:張健家會長 時間:104年10月3日(星期六)上午10時0分 地點:行政樓二樓會議室.
导数的应用 ——函数的单调性与极值.
Liner regression analysis
十二年國民基本教育 103學年度高中高職及五專 入學方式與就學區規劃 (草案諮詢稿)
前向人工神经网络敏感性研究 曾晓勤 河海大学计算机及信息工程学院 2003年10月.
高中職多元進路 家長說明會 主講人: 東莞台商子弟學校 麥馨月 日 期:
第 四 章 迴歸分析應注意之事項.
國立嘉義高級工業職業學校 101年度雲嘉區綜合高中宣導研習 國立嘉義高工 綜高高中學務組長 呂明欣
99年基測暨直升、原藝班、 申請、甄選入學報名作業說明
神经网络 Statistical Learning 方匡南 厦门大学教授 博士生导师.
Application of back-propagation networks in debris flow prediction
学生伤害及其预防控制 北京市疾病预防控制中心 学校卫生所 耳玉亮.
大腦的解題 ─神經網路簡介 陳慶瀚 機器智慧與自動化技術(MIAT)實驗室 義守大學電機系
臺灣北區102學年度高級中等學校 舞蹈班暨聯合甄選入學術科測驗 暨甄選入學說明會
台中市黎明國中105學年度 學生報考 一般智能暨學術性向資賦優異學生鑑定 報名流程說明
Presentation transcript:

第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室

3 章節目錄 第一節 序論 第二節 赫賓學習法 第三節 最小均方演算法 第四節 感知器學習法 第五節 Delta學習法 第一節 序論 第二節 赫賓學習法 第三節 最小均方演算法 第四節 感知器學習法 第五節 Delta學習法 第六節 Correlation學習法 第七節 贏者全拿學習法 第八節 Grossberg學習法 第九節 結論 本章重點回顧 本章習題 台大生工系水資源資訊系統研究室

第一節 序論 人的智慧源自於不斷的學習與成長 類神經網路需有良好的訓練學習機制 第一節 序論 人的智慧源自於不斷的學習與成長 類神經網路需有良好的訓練學習機制 學習演算法 就是一套權重調整的演算法,藉由演算法逐步地調整神經元間連結的權重,使其達到最佳的數值。 依據有無目標輸出值的學習過程,分為 監督式學習(supervised learning) 非監督式學習(unsupervised learning) 針對幾種最常用的學習法則作介紹 一般而言,同一層的神經元我們皆採用相同的學習法則 台大生工系水資源資訊系統研究室

Amari(1990)彙整前人的學習法則,提出 通用學習法(general learning rule) 權重向量的迭代調整量,係由輸入向量 X 與學習訊息來決定 學習訊息 r,則為 權重向量(W)、輸入向量(X)與目標輸出值(d)的組合函數,如下: 台大生工系水資源資訊系統研究室

依通用學習法則 台大生工系水資源資訊系統研究室

第二節 赫賓(Hebbian)學習法 Hebbian學習法(Hebbian learning rule)是最早發展且最富盛名的學習法則 前饋式架構,非監督式網路。 假設神經元A的軸突(axon)足以刺激鄰近的神經元B,當持續不斷的給予刺激,因而激發了神經元之新陳代謝,促使神經元A激發神經元B的功效增加。 起始權重常設為0。 由 Stent(1973)將其推衍出兩種法則: 若兩個連結的神經元同時被激發,則其連結的強度將增強 若兩個連結的神經元非同時被激發(即一個有反應,另一個沒有反應),則其連結的強度將變弱或消失。 台大生工系水資源資訊系統研究室

赫賓(Hebbian)學習法 台大生工系水資源資訊系統研究室

  試利用 Hebbian 學習法更新權重(見圖 3.2)。 已知 為目前神經元的連結權重向量,假設學習速率 η= 1,且神經元為 bipolar binary neuron,即 f(net) = sgn(net),利用下面兩組輸入調整目前的權重 ,求出 。 台大生工系水資源資訊系統研究室

第三節 最小均方演算法 監督式學習法最常用的是最小均方演算法(least-mean square algorithm, LMS) 亦稱為Widrow-Hoff學習法 前饋式架構,非監督式網路。 LMS用於調整其權重值的方式,主要是依據最陡坡降法 (the steepest descent method) 依據均方誤差(Mean-Square-Error, MSE)來定義 目標函數(objective function),或成本函數(cost function),誤差函數(error function),或能量函數(energy function)。 台大生工系水資源資訊系統研究室

最小均方演算法 台大生工系水資源資訊系統研究室

成本函數(誤差函數)曲面示意圖 台大生工系水資源資訊系統研究室

  試利用LMS演算法推求單一神經元 X→Y 的映射關係(即推求輸入向量與輸出值之連結權重向量),其中 X 為輸入向量,Y 為輸出值。假設輸入向量含有三個元素,即 ,為常態分布,平均值(μ)皆為零、變異數(variance)分別為 [4, 0.5, 1],輸出值 Y 為 X的線性組合,其關係為 Y = bTX 其中 bT = [0.9 0.7 –1]   台大生工系水資源資訊系統研究室

  圖3.4 迭代次數與誤差關係圖 圖3.5 迭代過程中學習速率變化情形 台大生工系水資源資訊系統研究室

第四節 感知器學習法(Perceptron learning rule) 感知器是屬於單層前饋式網路,早期的活化函數為兩值門檻函數,神經元的輸出為 1,否則為 0(或 –1) 台大生工系水資源資訊系統研究室

圖3.6 感知器學習法 台大生工系水資源資訊系統研究室

  利用 Perceptron 學習法更新權重。已知 為目前神經元的連結權重,假設學習速率η= 0.1,輸入向量 X1 的輸出值 d1 為 –1,X2 的輸出值 d2 為 –1。試調整目前的權重 ,來推求下二個迭代的權重 。 台大生工系水資源資訊系統研究室

其後相關研究發展了多層感知器(multilayer perceptrons, MLP),並證明其可以處理複雜的非線性問題 單層感知器因其活化函數為兩值門檻函數,可以將它看成是在超平面(hyperplane)上作線性分割(linear separate),對於在超平面上非線性的分割,感知器無法處理。 其後相關研究發展了多層感知器(multilayer perceptrons, MLP),並證明其可以處理複雜的非線性問題 圖3.7 感知器將○及 ╳分成兩類 圖3.9 多層前向式網路可以解決XOR問題 圖3.8 XOR problem 台大生工系水資源資訊系統研究室

直到1986年倒傳遞學習演算法(Back-propagation algorithm, BP)被提出,才使得多層感知器的網路架構得以實現。 為了讓感知器能有效的處理非線性的問題 …… → 活化函數為Sigmoid函數 (其調整網路連結權重的學習法則,與 LMS 相似,都是利用最陡坡降法尋求最小的瞬時目標函數值。 ) 台大生工系水資源資訊系統研究室

Sigmoid function perceptron 其中 或以純量的方式表示 台大生工系水資源資訊系統研究室

  試利用感知器的學習方法來辨識 1~0 十個數字(如圖 3.10所示,圖中顯示十個阿拉伯數字以空白及黑色填空的方式,儲存在 9×4 的方格上)。 台大生工系水資源資訊系統研究室

以 9×4的矩陣來代表這些方格,方格中黑色表示為 1、白色表示為 0   輸入資料處理 以 9×4的矩陣來代表這些方格,方格中黑色表示為 1、白色表示為 0 每一「數字」的輸入以一個向量來表示,也就是說,將 9×4 的矩陣改寫為 36×1 的向量,數字「3」的輸入方式可表示為 x3=[1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 1 1 1 1 1 1 1 1 1]T 台大生工系水資源資訊系統研究室

  網路架構 輸入層神經元個數=36   輸出層神經元個數= 10 台大生工系水資源資訊系統研究室

網路的輸出是由輸入向量與連結權重向量相乘後,經活化函數輸出而得   網路的輸出是由輸入向量與連結權重向量相乘後,經活化函數輸出而得 台大生工系水資源資訊系統研究室

訓練網路 PR 是 r 個輸入元素的最大值與最小值組成 r  2 矩陣,本例中 r = 36; S是輸出層神經元的個數,本例S = 10;   訓練網路 PR 是 r 個輸入元素的最大值與最小值組成 r  2 矩陣,本例中 r = 36; S是輸出層神經元的個數,本例S = 10; TF是轉移函數(即活化函數),TF本例選擇為對數雙曲函數; LF是學習函數,LF = Widrow-Hoff 權重值和偏權值學習規則。 台大生工系水資源資訊系統研究室

表3.2 感知器之連結權重值wji 表3.3 感知器之偏權值bj   表3.2 感知器之連結權重值wji 表3.3 感知器之偏權值bj 台大生工系水資源資訊系統研究室

  數字辨識測試 台大生工系水資源資訊系統研究室

第五節 Delta學習法 Delta 學習法(Delta learning rule)(McClelland 和 Rumel- hart, 1986)為監督式學習的演算法,適合用於活化函數為連續函數的神經元中,其學習訊號 r 為 台大生工系水資源資訊系統研究室

初始權重可以為任意值,通常是隨機產生的。 前饋式架構,監督式網路。 也稱為連續性感知器學習法 Delta 學習法(Delta learning rule) 初始權重可以為任意值,通常是隨機產生的。 前饋式架構,監督式網路。 也稱為連續性感知器學習法 Delta 學習法用於神經元具有連續性質,而感知器學習法用於具有離散性質的神經元,故有時 Delta 學習法也稱為連續性感知器學習法。 台大生工系水資源資訊系統研究室

Delta學習法 台大生工系水資源資訊系統研究室

,其中 , 其中 y = f(net),學習速率 η= 1,試調整目前的權重 ,來推求下二個迭代的權重 。   利用Delta學習法更新權重。 已知 為目前神經元的連結權重向量,兩組輸入向量X1、X2的輸出值為 d1 = –1、d2 = –1,假設活化函數為 ,其中 , 其中 y = f(net),學習速率 η= 1,試調整目前的權重 ,來推求下二個迭代的權重 。 台大生工系水資源資訊系統研究室

第六節 Correlation學習法 Correlation學習法(Correlation learning rule) 為監督式學習,適用於活化函數為非連續函數的神經元, 以通用學習法(general learning rule)來看其學習訊號 r = dj,而其權重的調整量為: Correlation學習法(Correlation learning rule) 可以看成是Hebbian學習法的一個特例, Hebbian 學習法屬於前饋式架構,非監督式學習,學習訊號為實際神經元輸出值 yj, Correlation 學習法的學習訊號為訓練範例的目標輸出值 dj; 台大生工系水資源資訊系統研究室

第七節 贏者全拿學習法 贏者全拿學習法(Winner-Take-All learning rule) 第七節 贏者全拿學習法 贏者全拿學習法(Winner-Take-All learning rule) 為非監督式學習,其演算過程是針對一群人工神經元,而不是單一個神經元; 圖3.17 優勝神經元 m 的連結權重可以獲得 修正,Wm 為圖上較粗的連結線 台大生工系水資源資訊系統研究室

第八節 Grossberg學習法 Grossberg學習法(Grossberg learning rule) 為監督式學習,與 Winner-take-all 學習法有許多相似之處, 這兩種學習演算法都是針對於同一層的諸多神經元,採用競爭式策略選取優勝神經元,並調整其連結的權重向量 圖3.18 顯示連結到 p 個輸出神經元的權重向量調整架構 台大生工系水資源資訊系統研究室

第九節 結論 學習演算法 wji 初始權重 學習法 神經元特性 Hebbian yjxi(t) 非監督式 任意 Perceptron 第九節 結論 學習演算法 wji 初始權重 學習法 神經元特性 Hebbian yjxi(t) 非監督式 任意 Perceptron  [dj – sgn(wjx)]xi 監督式 Binary biopolar Delta  (dj – yj )f ' (netj)x 連續 Widrow-Hoff  (dj – wjx )x Correlation  djx Winner-take-all  (xi – wmi) 任意(正規化) Grossberg  (dm – wmi) 台大生工系水資源資訊系統研究室

本章重點回顧 學習演算法就是一套權重調整的演算法,藉由演算法逐步地調整神 經元間連結的權重,使其達到最佳的數值。 沒有目標輸出值的學習過程稱為非監督式學習(unsupervised learning)。反之有目標輸出值的訓練過程稱為監督式學習 (supervised learning)。 通用學習法則: r = r (Wj, X, dj ) Wj (t) =ηr [Wj (t), X(t), dj(t)] X(t) Wj (t + 1) = Wj (t ) + ηr [Wj(t ), X(t ), dj(t)] X(t) 台大生工系水資源資訊系統研究室

本章習題 3.1 假設神經元的輸出 y1 為 0.28,y2 為 – 0.73,而活化函數為 (a) 求輸入向量 [x1 x2]。 (b) 求活化函數在net1 及net2 的斜率。 3.2 一人工神經元有 4 個輸入項,輸出項只有 1 個,活化函數 f(net) = sgn(net),訓練資料有 3 筆,分別為 台大生工系水資源資訊系統研究室

使用感知器學習法來訓練此單一神經元網路,設定學習速率  = 1。 若訓練結果W4 = [3 2 6 1]T, X1 = [ 1 –2 3 –1]T d1 = –1 X2 = [ 0 –1 2 –1]T d2 = 1 X3 = [–2 0 –3 –1]T d3 = –1 使用感知器學習法來訓練此單一神經元網路,設定學習速率  = 1。 若訓練結果W4 = [3 2 6 1]T, (a) 反推 W3,W2,W1。 (b) 使用相同訓練資料再訓練一次,求W5,W 6,W 7。 台大生工系水資源資訊系統研究室

3.3 承接實例 3.4,試判別下圖 9  4 網格中不完整的數字分別為「8」與 「9」。 3.3 承接實例 3.4,試判別下圖 9  4 網格中不完整的數字分別為「8」與 「9」。 3.4 實例3.5活化函數為 證明 ,其中 y = f(net)。 3.5 請比較本章的各種學習演算法,並說明其相同處與不同處。 3.6 試利用贏者全拿學習法計算實例3.4。 台大生工系水資源資訊系統研究室

假設神經元 A 的軸突(axon)足以刺激鄰近的神經元 B,當我們持續不斷地給予刺激,因而激發了神經元的新陳代謝,促使神經元 A 激發神經元 B 的功效增加。 By Hebb ( 1949 ) 台大生工系水資源資訊系統研究室