第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.

Slides:



Advertisements
Similar presentations
Differentiation 微分 之二 以公式法求函數的微分. Type 函數形式 Function f (x) Derivative d f (x) /d x c=constant 常數 c0 Power of x xaxa a x a-1 Trigonometric 三角函數 sin x cos.
Advertisements

Chap 3 微分的應用. 第三章 3.1 區間上的極值 3.2 Rolle 定理和均值定理 3.3 函數的遞增遞減以及一階導數的判定 3.4 凹面性和二階導數判定 3.5 無限遠處的極限 3.6 曲線繪圖概要 3.7 最佳化的問題 3.8 牛頓法 3.9 微分.
類神經網路簡介. 生物神經細胞 發生於神經元突觸之時間性相加示意圖 圖片摘自: M. Arbib, The Metaphorical Brain : Neural Networks and Beyond, John Wiley & Sons, Inc., 1989.)
工職數學 第四冊 第一章 導 數 1 - 1 函數的極限與連續 1 - 2 導數及其基本性質 1 - 3 微分公式 1 - 4 高階導函數.
大綱 1. 三角函數的導函數. 2. 反三角函數的導函數. 3. 對數函數的導函數. 4. 指數函數的導函數.
人的性别遗传 合肥市第四十九中学 丁 艳. 男女成对染色体排序图 1 、男性和女性各 23 对染色体有何异同 ? 哪 一对被称为性染色体 ? 2 、这两幅图中,哪幅 图显示的是男性的染色 体?哪幅图显示的是女 性染色体? 3 、图中哪条染色体是 Y 染色体?它与 X 染色体 在形态上的主要区别是.
變數與函數 大綱 : 對應關係 函數 函數值 顧震宇 台灣數位學習科技股份有限公司. 對應關係 蛋餅飯糰土司漢堡咖啡奶茶 25 元 30 元 25 元 35 元 25 元 20 元 顧震宇 老師 台灣數位學習科技股份有限公司 變數與函數 下表是早餐店價格表的一部分: 蛋餅 飯糰 土司 漢堡 咖啡 奶茶.
報告人:朝陽科技大學保險金融管理系 施懿純 助理教授
1、一般地说,在生物的体细胞中, 和 都是成对存在的。
辨性别 A B. 辨性别 A B 第三节人类染色体与性别决定 昌邑市龙池初中 杨伟红 学习目标 1.理解人的染色体组成和传递规律。 2.解释人类性别决定的原理。 3.通过探究活动,解读数据了解生男生女的比例。
樞紐分析與資料庫 蕭世斌 Nov 20, 2010.
中二數學 第五章 : 二元一次方程 二元一次方程的圖像.
08 CSS 基本語法 8-1 CSS 的演進 8-2 CSS 樣式規則與選擇器 8-3 連結HTML 文件與CSS 樣式表
倒傳遞類神經網路 2006年3月14日星期二.
遞迴關係-爬樓梯.
第十章 類神經網路.
Adaptive Resonance Theory (ART)
第9章 人工神經網絡 原理及應用 王海.
。星。星。の。承。諾。 6年15班 7號 張靖旋 作者:不明.
色 弱 與 色 盲.
第四章 倒傳遞類神經網路 類神經網路.
第四章 數列與級數 4-1 等差數列與級數 4-2 等比數列與級數 4-3 無窮等比級數 下一頁 總目錄.
宠物之家 我的宠物性别? 雌(♀) or 雄(♂) 第一阶段:我的宠物我做主 第二阶段:宠物“相亲记” 第三阶段:家族诞生
5.1 自然對數函數:微分 5.2 自然對數函數:積分 5.3 反函數 5.4 指數函數:微分與積分 5.5 一般底數的指數函數和應用 5.6 反三角函數:微分 5.7 反三角函數:積分 5.8 雙曲函數.
第五章 標準分數與常態分配 第一節 相對地位量數 第二節 常態分配 第三節 偏態與峰度 第四節 常態化標準分數 第五節 電腦習作.
-Artificial Neural Network- Adaline & Madaline
計算機概論 蘇木春 中央大學資工系.
第六章 计算智能 6.1 概述 6.2 神经计算 6.3 进化计算 6.4 模糊计算 6.5 粗糙集理论 6.6 其他.
正反器 一、循序邏輯電路 二、動作情形:用時序(timing),其次輸出( )是由外界輸入與( )所共同決定。
第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.
簡易C++除錯技巧 長庚大學機械系
PWM (Pulse width modulation)驅動:脈波寬度調變就是依照控制訊號的大小,調整脈波串列寬度,控制電壓值愈大,脈波寬度就愈寬,利用正弦波做為脈寬調變電路的控制電壓,其頻率為需要的輸出頻率,以脈波控制電晶體ON-OFF動作,以調節馬達線圈電流。 脈波寬度調變技術如圖10-28所示,圖10-28(a)所示為使用電晶體的單相眽寬調變變頻電路,電路中T1、T2島通狀態由兩個比較器控制,如圖10-28(b)所示。
2-3 基本數位邏輯處理※.
第6章組合邏輯應用實驗 6-1 編碼∕解碼器實驗 6-2 多工∕解多工器實驗 6-3 七段顯示解碼器.
4B冊 認識公倍數和最小公倍數 公倍數和最小公倍數的關係.
CH03 資訊管理的智慧觀點:技術篇.
第十一章 相關研究法.
1.3 在整除性問題之應用 附加例題 3 © 文達出版 (香港 )有限公司.
信号与图像处理基础 Adaptive Filter 中国科学技术大学 自动化系 曹 洋.
15.3 極大與極小 附加例題 5 附加例題 6 © 文達出版 (香港 )有限公司.
15.5 最大值和最小值 的問題 附加例題 9 附加例題 10 © 文達出版 (香港 )有限公司.
MNIST 手寫數字影像辨識.
第七單元 正反器 (教科書第四章) 數位系統實驗
Definition of Trace Function
小學四年級數學科 8.最大公因數.
第一次Labview就上手 參考書籍: LabVIEW for Everyone (Jeffrey Travis/Jim Kring)
我 會 數 數.
大綱:加減法的化簡 乘除法的化簡 去括號法則 蘇奕君 台灣數位學習科技股份有限公司
微積分網路教學課程 應用統計學系 周 章.
田口方法應用於語音辨識 報告者:李建德.
106年度教育雲服務策略聯盟計畫 酷學習 COOL CLASS.
Neural Networks: Learning
類神經網路之感知機簡介 Reporter:Ya-Zhong, Chen Network Application Lab.
7.5 三維空間問題 附加例題 6 附加例題 7 互動學習程式 三維空間 問題.
例題 1. 多項式的排列 1-2 多項式及其加減法 將多項式 按下列方式排列: (1) 降冪排列:______________________ (2) 升冪排列:______________________ 排列 降冪:次數由高至低 升冪;次數由低至高.
1-1 二元一次式運算.
資料表示方法 資料儲存單位.
第一章 直角坐標系 1-3 函數及其圖形.
非負矩陣分解法介紹 報告者:李建德.
神经网络 Statistical Learning 方匡南 厦门大学教授 博士生导师.
Speaker : YI-CHENG HUNG
4-1 變數與函數 第4章 一次函數及其圖形.
一 可靠度問題.
All Sources Shortest Path The Floyd-Warshall Algorithm
10303: How Many Trees? ★★☆☆☆ 題組:Contest Archive with Online Judge
11621 : Small Factors ★★☆☆☆ 題組:Problem Set Archive with Online Judge
Chapter 16 動態規劃.
第三章 比與比例式 3-1 比例式 3-2 連比例 3-3 正比與反比.
Presentation transcript:

第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室

3 章節目錄 第一節 序論 第二節 赫賓學習法 第三節 最小均方演算法 第四節 感知器學習法 第五節 Delta學習法 第一節 序論 第二節 赫賓學習法 第三節 最小均方演算法 第四節 感知器學習法 第五節 Delta學習法 第六節 Correlation學習法 第七節 贏者全拿學習法 第八節 Grossberg學習法 第九節 結論 本章重點回顧 本章習題 台大生工系水資源資訊系統研究室

第一節 序論 人的智慧源自於不斷的學習與成長 類神經網路需有良好的訓練學習機制 第一節 序論 人的智慧源自於不斷的學習與成長 類神經網路需有良好的訓練學習機制 學習演算法 就是一套權重調整的演算法,藉由演算法逐步地調整神經元間連結的權重,使其達到最佳的數值。 依據有無目標輸出值的學習過程,分為 監督式學習(supervised learning) 非監督式學習(unsupervised learning) 針對幾種最常用的學習法則作介紹 一般而言,同一層的神經元我們皆採用相同的學習法則 台大生工系水資源資訊系統研究室

Amari(1990)彙整前人的學習法則,提出 通用學習法(general learning rule) 權重向量的迭代調整量,係由輸入向量 X 與學習訊息來決定 學習訊息 r,則為 權重向量(W)、輸入向量(X)與目標輸出值(d)的組合函數,如下: 台大生工系水資源資訊系統研究室

依通用學習法則 台大生工系水資源資訊系統研究室

第二節 赫賓學習法 Hebbian學習法(Hebbian learning rule)是最早發展且最富盛名的學習法則 第二節 赫賓學習法 Hebbian學習法(Hebbian learning rule)是最早發展且最富盛名的學習法則 由 Stent(1973)將其推衍出兩種法則: 若兩個連結的神經元同時被激發,則其連結的強度將增強 若兩個連結的神經元非同時被激發(即一個有反應,另一個沒有反應),則其連結的強度將變弱或消失。 推導出 Hebbian 學習法的數學式 台大生工系水資源資訊系統研究室

  試利用 Hebbian 學習法更新權重(見圖 3.2)。 已知 為目前神經元的連結權重向量,假設學習速率 η= 1,且神經元為 bipolar binary neuron,即 f(net) = sgn(net),利用下面兩組輸入調整目前的權重 ,求出 。 台大生工系水資源資訊系統研究室

第三節 最小均方演算法 監督式學習法最常用的是最小均方演算法(least-mean square algorithm, LMS) 亦稱為Widrow-Hoff學習法 LMS用於調整其權重值的方式,主要是依據最陡坡降法 (the steepest descent method) 依據均方誤差(Mean-Square-Error, MSE)來定義 目標函數(objective function),或成本函數(cost function),誤差函數(error function),或能量函數(energy function)。 台大生工系水資源資訊系統研究室

成本函數(誤差函數)曲面示意圖 台大生工系水資源資訊系統研究室

  試利用LMS演算法推求單一神經元 X→Y 的映射關係(即推求輸入向量與輸出值之連結權重向量),其中 X 為輸入向量,Y 為輸出值。假設輸入向量含有三個元素,即 ,為常態分布,平均值(μ)皆為零、變異數(variance)分別為 [4, 0.5, 1],輸出值 Y 為 X的線性組合,其關係為 Y = bTX 其中 bT = [0.9 0.7 –1]   台大生工系水資源資訊系統研究室

  圖3.4 迭代次數與誤差關係圖 圖3.5 迭代過程中學習速率變化情形 台大生工系水資源資訊系統研究室

第四節 感知器學習法(Perceptron learning rule) 感知器是屬於單層前饋式網路,早期的活化函數為兩值門檻函數,神經元的輸出為 1,否則為 0(或 –1) 台大生工系水資源資訊系統研究室

圖3.6 感知器學習法 台大生工系水資源資訊系統研究室

  利用 Perceptron 學習法更新權重。已知 為目前神經元的連結權重,假設學習速率η= 0.1,輸入向量 X1 的輸出值 d1 為 –1,X2 的輸出值 d2 為 –1。試調整目前的權重 ,來推求下二個迭代的權重 。 台大生工系水資源資訊系統研究室

其後相關研究發展了多層感知器(multilayer perceptrons, MLP),並證明其可以處理複雜的非線性問題 單層感知器因其活化函數為兩值門檻函數,可以將它看成是在超平面(hyperplane)上作線性分割(linear separate),對於在超平面上非線性的分割,感知器無法處理。 其後相關研究發展了多層感知器(multilayer perceptrons, MLP),並證明其可以處理複雜的非線性問題 圖3.7 感知器將○及 ╳分成兩類 圖3.9 多層前向式網路可以解決XOR問題 圖3.8 XOR problem 台大生工系水資源資訊系統研究室

直到1986年倒傳遞學習演算法(Back-propagation algorithm, BP)被提出,才使得多層感知器的網路架構得以實現。 為了讓感知器能有效的處理非線性的問題 …… → 活化函數為Sigmoid函數 (其調整網路連結權重的學習法則,與 LMS 相似,都是利用最陡坡降法尋求最小的瞬時目標函數值。 ) 台大生工系水資源資訊系統研究室

其中 或以純量的方式表示 台大生工系水資源資訊系統研究室

  試利用感知器的學習方法來辨識 1~0 十個數字(如圖 3.10所示,圖中顯示十個阿拉伯數字以空白及黑色填空的方式,儲存在 9×4 的方格上)。 台大生工系水資源資訊系統研究室

以 9×4的矩陣來代表這些方格,方格中黑色表示為 1、白色表示為 0   輸入資料處理 以 9×4的矩陣來代表這些方格,方格中黑色表示為 1、白色表示為 0 每一「數字」的輸入以一個向量來表示,也就是說,將 9×4 的矩陣改寫為 36×1 的向量,數字「3」的輸入方式可表示為 x3=[1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 1 1 1 1 1 1 1 1 1]T 台大生工系水資源資訊系統研究室

  網路架構 輸入層神經元個數=36   輸出層神經元個數= 10 台大生工系水資源資訊系統研究室

網路的輸出是由輸入向量與連結權重向量相乘後,經活化函數輸出而得   網路的輸出是由輸入向量與連結權重向量相乘後,經活化函數輸出而得 台大生工系水資源資訊系統研究室

訓練網路 PR 是 r 個輸入元素的最大值與最小值組成 r  2 矩陣,本例中 r = 36; S是輸出層神經元的個數,本例S = 10;   訓練網路 PR 是 r 個輸入元素的最大值與最小值組成 r  2 矩陣,本例中 r = 36; S是輸出層神經元的個數,本例S = 10; TF是轉移函數(即活化函數),TF本例選擇為對數雙曲函數; LF是學習函數,LF = Widrow-Hoff 權重值和偏權值學習規則。 台大生工系水資源資訊系統研究室

表3.2 感知器之連結權重值wji 表3.3 感知器之偏權值bj   表3.2 感知器之連結權重值wji 表3.3 感知器之偏權值bj 台大生工系水資源資訊系統研究室

  數字辨識測試 台大生工系水資源資訊系統研究室

第五節 Delta學習法 Delta 學習法(Delta learning rule)(McClelland 和 Rumel- hart, 1986)為監督式學習的演算法,適合用於活化函數為連續函數的神經元中,其學習訊號 r 為 台大生工系水資源資訊系統研究室

初始權重可以為任意值,通常是隨機產生的。 也稱為連續性感知器學習法 Delta 學習法(Delta learning rule) 初始權重可以為任意值,通常是隨機產生的。 也稱為連續性感知器學習法 Delta 學習法用於神經元具有連續性質,而感知器學習法用於具有離散性質的神經元,故有時 Delta 學習法也稱為連續性感知器學習法。 台大生工系水資源資訊系統研究室

,其中 , 其中 y = f(net),學習速率 η= 1,試調整目前的權重 ,來推求下二個迭代的權重 。   利用Delta學習法更新權重。 已知 為目前神經元的連結權重向量,兩組輸入向量X1、X2的輸出值為 d1 = –1、d2 = –1,假設活化函數為 ,其中 , 其中 y = f(net),學習速率 η= 1,試調整目前的權重 ,來推求下二個迭代的權重 。 台大生工系水資源資訊系統研究室

第六節 Correlation學習法 Correlation學習法(Correlation learning rule) 為監督式學習,適用於活化函數為非連續函數的神經元, 以通用學習法(general learning rule)來看其學習訊號 r = dj,而其權重的調整量為: Correlation學習法(Correlation learning rule) 可以看成是Hebbian學習法的一個特例, Hebbian 學習法屬於非監督式學習,學習訊號為實際神經元輸出值 yj, Correlation 學習法的學習訊號為訓練範例的目標輸出值 dj; 台大生工系水資源資訊系統研究室

第七節 贏者全拿學習法 贏者全拿學習法(Winner-Take-All learning rule) 第七節 贏者全拿學習法 為非監督式學習,其演算過程是針對一群人工神經元,而不是單一個神經元; 贏者全拿學習法(Winner-Take-All learning rule) 圖3.17 優勝神經元 m 的連結權重可以獲得 修正,Wm 為圖上較粗的連結線 台大生工系水資源資訊系統研究室

第八節 Grossberg學習法 Grossberg學習法(Grossberg learning rule) 為監督式學習,與 Winner-take-all 學習法有許多相似之處, 這兩種學習演算法都是針對於同一層的諸多神經元,採用競爭式策略選取優勝神經元,並調整其連結的權重向量 圖3.18 顯示連結到 p 個輸出神經元的權重向量調整架構 台大生工系水資源資訊系統研究室

第九節 結論 學習演算法 wji 初始權重 學習法 神經元特性 Hebbian yjxi(t) 非監督式 任意 Perceptron 第九節 結論 學習演算法 wji 初始權重 學習法 神經元特性 Hebbian yjxi(t) 非監督式 任意 Perceptron  [dj – sgn(wjx)]xi 監督式 Binary biopolar Delta  (dj – yj )f ' (netj)x 連續 Widrow-Hoff  (dj – wjx )x Correlation  djx Winner-take-all  (xi – wmi) 任意(正規化) Grossberg  (dm – wmi) 台大生工系水資源資訊系統研究室

本章重點回顧 學習演算法就是一套權重調整的演算法,藉由演算法逐步地調整神 經元間連結的權重,使其達到最佳的數值。 沒有目標輸出值的學習過程稱為非監督式學習(unsupervised learning)。反之有目標輸出值的訓練過程稱為監督式學習 (supervised learning)。 通用學習法則: r = r (Wj, X, dj ) Wj (t) =ηr [Wj (t), X(t), dj(t)] X(t) Wj (t + 1) = Wj (t ) + ηr [Wj(t ), X(t ), dj(t)] X(t) 台大生工系水資源資訊系統研究室

本章習題 3.1 假設神經元的輸出 y1 為 0.28,y2 為 – 0.73,而活化函數為 (a) 求輸入向量 [x1 x2]。 (b) 求活化函數在net1 及net2 的斜率。 3.2 一人工神經元有 4 個輸入項,輸出項只有 1 個,活化函數 f(net) = sgn(net),訓練資料有 3 筆,分別為 台大生工系水資源資訊系統研究室

使用感知器學習法來訓練此單一神經元網路,設定學習速率  = 1。 若訓練結果W4 = [3 2 6 1]T, X1 = [ 1 –2 3 –1]T d1 = –1 X2 = [ 0 –1 2 –1]T d2 = 1 X3 = [–2 0 –3 –1]T d3 = –1 使用感知器學習法來訓練此單一神經元網路,設定學習速率  = 1。 若訓練結果W4 = [3 2 6 1]T, (a) 反推 W3,W2,W1。 (b) 使用相同訓練資料再訓練一次,求W5,W 6,W 7。 台大生工系水資源資訊系統研究室

3.3 承接實例 3.4,試判別下圖 9  4 網格中不完整的數字分別為「8」與 「9」。 3.3 承接實例 3.4,試判別下圖 9  4 網格中不完整的數字分別為「8」與 「9」。 3.4 實例3.5活化函數為 證明 ,其中 y = f(net)。 3.5 請比較本章的各種學習演算法,並說明其相同處與不同處。 3.6 試利用贏者全拿學習法計算實例3.4。 台大生工系水資源資訊系統研究室

假設神經元 A 的軸突(axon)足以刺激鄰近的神經元 B,當我們持續不斷地給予刺激,因而激發了神經元的新陳代謝,促使神經元 A 激發神經元 B 的功效增加。 By Hebb ( 1949 ) 台大生工系水資源資訊系統研究室