Adaptive Resonance Theory (ART)

Slides:



Advertisements
Similar presentations
办公室保健指南. 减少辐射篇 ❤显示器散发出的辐射多数不是来自它的正面,而是侧面和后面。因此,不要 把自己显示器的后面对着同事的后脑或者身体的侧面。 ❤常喝绿茶。茶叶中含有的茶多酚等活性物质,有助吸收放射性物质。 ❤尽量使用液晶显示器。
Advertisements

魏 饴. 处级干部培训班讲座 一、卓越干部的德行素质  常修为政之德、常思贪欲之害、常怀律己之心!  孔老夫子有个观点 “ 为政以德,譬如北辰居其所而众星拱之。 ”  司马光《资治通鉴》 “ 才者,德之资也;德者,才之帅也。 ” “ 德 ” 胜 “ 才 ” 谓之 “ 君子 ” , “ 才 ”
104-2 社團聯席會議 人社二館第五講堂 第 1 次社團聯席會 會議議程 一、邱學務長致詞 : 二、王麗倩組長致詞 : 三、課外組報告: 課外活動經費核銷事項 --- 松漢 社課鐘點費核銷事項 --- 松漢 3. 三社聯合成發之講堂租借規定說明.
一、真愛密碼 二、尋求真愛 三、有自尊的愛. 。如果雙方對愛情產生 質疑、困惑時,則表示 彼此之間的愛情關係仍 有 待加強或釐清,千萬別 急著為自己的人生大事 下決定。 我是一個 16 歲的未婚媽媽,發現自 己懷孕時,已經五個月大了,我知 道自己沒能力照顧孩子,在驚訝之 於,大人們只好坦然接受,幫我找.
大地遊戲王 課程實錄.
第十二章 单位的政府职能及分解 何康康 黄旭峰 姚苏挺.
会计报表网上申报操作指南 (以小企业会计准则为例) 松江区税务局 2014年7月.
加強水銀體溫計稽查管制及回收 回收作業須知及緊急應變措施
企业涉税业务基本知识宣传 郑州航空港区国家税务局机场税务分局 王 磊.
第4章 分錄及日記簿 4-1 借貸法則 4-2 日記簿的格式及記錄方法 4-3 分錄的意義及記錄方法 4-4 常見分錄題型分析
Unsupervised feature learning: autoencoders
大 播 海 直.
第十三屆 Step.1 我們的目標 Step.2 我們的角色 Step.4 權利與義務 義務 權利 年繳會費五百元整
99年成語200題庫(21-40).
用“自言自语法”提高学生 英语口头表达能力 李奉栖.
資料採礦與商業智慧 第四章 類神經網路-Neural Net.
财务管理.
大家都来关注国家安全 南京市江宁中学 傅德柱.
植物保护 课程整体设计 汇报 申报省级精品资源共享课建设 植物保护课程组.
政府扶持资金通览 技术改造篇.
小欧操作说明.
-Artificial Neural Network- Hopfield Neural Network(HNN) 朝陽科技大學 資訊管理系 李麗華 教授.
100學年度 教師教學媒體製作觀摩 氣壓丙級檢定術科教材之一 機械系 副教授 王俊斌 日期:
实践 课题 周围环境对当代大学生成长的影响 指导老师:王永章 小组成员:陈荣、刘若楠、张红艳、吕雪丹、樊金芳、李惠芬、黄婧
LINGO.
-Artificial Neural Network- Adaline & Madaline
Introduction To Mean Shift
An Adaptive Cross-Layer Multi-Path Routing Protocol for Urban VANET
Hadoop 單機設定與啟動 step 1. 設定登入免密碼 step 2. 安裝java step 3. 下載安裝Hadoop
題目:十六對一多工器 姓名:李國豪 學號:B
Chapter 5 迴圈.
Fuzzy在生活上的應用 陳詩豐 助理教授 龍華科技大學機械系.
本科生医保资料的提交.
公路運輸業之經營與管理 公路運輸業分類 公路運輸業之權利與義務 汽車運輸業之營運 汽車運輸業之監督與管理 公路運輸費率 公路監理
第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.
微積分網路教學課程 應用統計學系 周 章.
第七章 MSP430時脈計時器A模組.
JDK 安裝教學 (for Win7) Soochow University
Chapter 5 Verilog硬體描述語言
Working with Databases (II) 靜宜大學資管系 楊子青
統計圖表的製作.
Copyright © Cengage Learning. All rights reserved.
Advanced Artificial Intelligence
AIM-spice Miao-shan, Li.
Echo Server/Client Speaker:Fang.
Probabilistic Neural Network (PNN)
神经信息学 自组织网络 ——自组织映射 史忠植 中科院计算所 2019/2/2.
人工智慧:學習.
建国以来,大陆对台政策 金亚丽 周莎 黄运娜.
-Artificial Neural Network(ANN)- Self Organization Map(SOM)
《结构力学认知实验》(授课形式)的上课时间改为: 5月5日(周二)晚上18:00~19:30和19:30~21:00,
《结构力学认知实验》(授课形式)的上课时间改为: 5月7日(周四)晚上18:30~20:00和20:00~21:30,
-Artificial Neural Network- Matlab操作介紹 -以類神經網路BPN Model為例
主講人:陳鴻文 副教授 銘傳大學資訊傳播工程系所 日期:3/13/2010
期末考.
资金时间价值概述 主讲人 任晓宇 去除PPT模板上的--无忧PPT整理发布的文字 首先打开PPT模板,选择视图,然后选择幻灯片母版
Neural Networks: Learning
畢業資格審查系統 操作步驟說明.
貪婪演算法 /5/6 演算法 _ 第三章.
新制退休實務計算說明- 現職人員退休範例說明
流程控制:Switch-Case 94學年度第一學期‧資訊教育 東海大學物理系.
聚合型第一種:隱沒帶、島弧 例子:臺灣東方的琉球海溝、南美洲智利海溝. 聚合型第一種:隱沒帶、島弧 例子:臺灣東方的琉球海溝、南美洲智利海溝.
SLIQ:一种快速可伸缩分类器 Manish Mehta, Rakesh Agrawal, Jorma Rissanen IBM Almaden Research Center, 1996 报告人:郭新涛
问题求解-论题1-5 -数据与数据结构 陶先平.
類神經網路之感知機簡介 Reporter:Ya-Zhong, Chen Network Application Lab.
106 學年度新生入學說明會 國立臺灣海洋大學 教務處簡介
學士學位畢業論文說明 逢 學 大 甲 土 理 管 地 2009/10/05.
高雄市97年度國民小學閱讀計畫創新教學-教案達人創新教學方案
2019/8/26 二元一次方程式的圖形 陳玉珮 2019/8/26.
InputStreamReader Console Scanner
Presentation transcript:

Adaptive Resonance Theory (ART) 自適應共振理論網路

ART 1976年由Carpenter & Grossberg提出 類型 ART1 ART2 ART3 非監督式學習網路的典範 只能用於輸入值為二元值者 ART2 能用於輸入值為連續值者 ART3

ART (續) 允許使用者將相似程度的patterns放置在相同的分類 具有 穩定性 可塑性 新舊事物夠相似, 只修改系統中舊事 當新的事物輸入時,舊事物應適當保留 可塑性 當新的事物輸入時,應迅速學習 新舊事物夠相似, 只修改系統中舊事 物的部分記憶 新舊事物不夠相似, 建立新的記憶

ART (續) ART與其他非監督式學習網路的主要不同點在「警戒值」 網路架構 輸入層 輸出層 網路連結 Output …… bij tij ……………… Input (x1,x2,x3,…,xn) bij : 輸入神經元i到輸出神經元j的權重值 tij : 輸輸出神經元j到輸入神經元i的權重值

ART (續) 輸入訓練範例後,經下列公式計算,取輸出向量中值最高者 然後進行警戒值測試

ART (續) 對贏得勝利的分類單元藉由下列公式調整權重值 L > 1 , 通常設為 L-1=0.5

ART (續) F2 layer (Cluster units) …………… …………………………… F1(b) interface F1(a) input

ART (續) ART1演算法 Step 1 : 設定起始值 L>1,0<1,起始權重值 Step 2 : 當不滿足停止條件時,執行 Step3-14 Step 3 : 對每一個訓練範例執行Step 4-13 Step 4 : 設定所有F2神經元的值為0 設定所有F1(a)神經元的值為 input vector s Step 5 : 計算s 的norm Step 6 : 將輸入訊號從F1(a)傳送到F1(b) Step 7 : If yj-1,then

ART (續) Step 8 : 當reset為真時,執行Step 9-12 Step 9 : 尋找J (yJyj for all nodes j) If yJ=-1,則所有的神經元將變羞怯且            此訓練範例將不被分類        Step 10 : 重新計算F1(b)的 x        Step 11 : 計算向量 x 的 norm Step 12 : 測試reset Step 13 : 修正神經元J的權重值      Step 14 : 測試停止條件

ART (續) 範例 1 2 3 4 5 6 n : number of components in an input vector 1 2 3 4 5 6 n : number of components in an input vector m : maximum number of clusters to be formed : vigilance parameter 0<  <1 L : parameter used in update of bottom-up weights L>1 L=1.5

ART (續) Step 0 : L=2 , =0.5 , bij(0)=1/7 , tji(0)=1 Step 1 : For the first input vector (1,0,1,0,1,0) s=(1 0 1 0 1 0) ||s||=3 ||x||=(1 0 1 0 1 0) compute net input to each node in the F2 layer Recompute the F1 activation xi=sit1i (J=1) x=(1 0 1 0 1 0) ||x||=3 Test for reset Update the weights for node 1 當輸出均相同時找 i 值較小者

ART (續) Step 2 : For the second input vector (0,1,0,1,0,1) s=(0 1 0 1 0 1) ||s||=3 ||x||=(0 1 0 1 0 1) compute net input to each node in the F2 layer Recompute the F1 activation xi=sit2i (J=2) x=(0 1 0 1 0 1) ||x||=3 Test for reset Update the weights for node 2

ART (續) Step 3 : For the third input vector (1,1,1,0,0,0) s=(1 1 1 0 0 0) ||s||=3 ||x||=(1 1 1 0 0 0) compute net input to each node in the F2 layer Recompute the F1 activation xi=sit1i (J=1) x=(1 0 1 0 0 0) ||x||=2 Test for reset Update the weights for node 1

ART (續) Step 4 : For the fourth input vector (0,0,0,1,1,1) s=(0 0 0 1 1 1) ||s||=3 ||x||=(0 0 0 1 1 1) compute net input to each node in the F2 layer Recompute the F1 activation xi=sit2i (J=2) x=(0 0 0 1 0 1) ||x||=2 Test for reset Update the weights for node 1

ART (續) Step 5 : For the fourth input vector (1,1,0,0,1,1) s=(1 1 0 0 1 1) ||s||=4 ||x||=(1 1 0 0 1 1) compute net input to each node in the F2 layer Recompute the F1 activation xi=sit1i (J=1) x=(1 0 0 0 0 0) ||x||=1 Test for reset Update the weights for node 1

ART (續) Now the value for the F2 layer are Recompute the F1 activation xi=sit2i (J=2) x=(0 0 0 0 0 1) ||x||=1 Test for reset Update the weights for node 1

ART (續) Now the value for the F2 layer are Recompute the F1 activation xi=sit3i (J=3) x=(1 1 0 0 1 1) ||x||=4 Test for reset Update the weights for node 1

ART (續) 停止條件 當F2層的神經元皆inhibited(羞怯) No weight changes No units reset Maximum number of epochs reached 當F2層的神經元皆inhibited(羞怯) 增加更多的聚類神經元 減少警戒值 Pattern不予分類

ART (續) 起始buttom-up權重值倘若給得太大,將導致過多聚類型態的情形 當pattern的相似度不足時,ART不會強迫分類 當vectors 的組成有較少的非0值,或有較少的0時,再比較相似程度時較吃虧 聚類數目太多則降低警戒值,反之,提高警戒值 誤差太大時,應適當提高警戒值

Fuzzy ART 非監督式學習 對類比或二元值的輸入,具有快速且穩定聚類的能力 對任意的輸入向量 I ,以M維的方式展開 I = ( I1, I2, …, IM ) 其每個組成 Ii 的值皆設 定在[0, 1]的區間

Fuzzy ART演算法 Step 1 : 設定起始權重值 wij  1 , i=1 to N , j=1 to M 選擇參數()值 > 0 學習速率()值  [0, 1] 警戒值()  [0, 1] (最難決定) Step 2 : 讀入一個新的輸入向量I (二元值或連續值) Step 3 : 對每一個輸出節點計算選擇函數Tj Step 4 : 選擇優勝單元 Step 5 : 共振測試(比較新舊事物的相似度)

Fuzzy ART演算法(續) Step 6 : 沒被選擇的單元進行重置的動作 Set T=-1 and go to Step 4 Step 8 : 重複 : Go to Step 2

Fuzzy ART 的 normalize The ith attribute, xi, of an M-dimensional pattern is scaled between its minimum value, mini, and its maximum value, maxi.

Fuzzy ART 範例 (1, 0, 0.8, 1), (0,1,0,0.9), (1,0.2,1,0.8) wij=1 =0.5 =0.8 =0.5 皆相同,選擇T1,進行共振測試 進行權重值修正

Fuzzy ART 範例(續) 選擇T2,進行共振測試 進行權重值修正

Fuzzy ART 範例(續) 選擇T1,進行共振測試 進行權重值修正