Probabilistic Neural Network (PNN)

Slides:



Advertisements
Similar presentations
1. 甚麼是人工智能 ? 甚麼是人工智能 ? 2. 強人工智能 - 弱人工智能 強人工智能 - 弱人工智能 3. 實現人工智能的必要條件 實現人工智能的必要條件 4. 人工智能的例子 人工智能的例子 5. 虛擬真實 虛擬真實 6. 感想 感想.
Advertisements

简单迭代法的概念与结论 简单迭代法又称逐次迭代法,基本思想是构造不动点 方程,以求得近似根。即由方程 f(x)=0 变换为 x=  (x), 然后建立迭代格式, 返回下一页 则称迭代格式 收敛, 否则称为发散 上一页.
渡黑水溝 郁永河. 2 戎克船:是明末清初時期往返兩岸的主要交通工具 ∗ 1. 關於台灣的開發歷史,我們到底了解多少呢?不妨試著說出 就我們所知有關台灣開發史的故事、小說、電影、音樂與大 家分享。 ∗ 2. 什麼是黑水溝?黑水溝為什麼會成為大陸移民渡海來臺時最 大的威脅? ∗ 3. 有聽過「六死三留一回頭」、「有唐山公,無唐山嬤」這兩.
金融一班 王亚飞 王亚飞 王浩浩 王浩浩 吴海玥 吴海玥 我 连云港 的 家 乡 连云港 连云港,位于东经118°24′~119°48′和北纬 34°~35°07′之间,古称郁洲、海州,民国时称 连云市,建国后称新海连市,别称“港城”。东 西长129公里,南北宽约132公里,水域面积 平方公里。连云港市也是我国于1984年.
因果图. 因果图 因果图的适用范围 如果在测试时必须考虑输入条件的各种 组合,可使用一种适合于描述对于多种 条件的组合,相应产生多个动作的形式 来设计测试用例,这就需要利用因果图。 因果图方法最终生成的就是判定表。它 适合于检查程序输入条件的各种组合情 况。 因果图的适用范围 如果在测试时必须考虑输入条件的各种.
配备计算机教室、多媒体教室、图书室、卫生室、 实验室、仪器室、音体美劳器材室、心理咨询室、少先 队活动室、教师集体备课室等专用教室。实验室、仪器 室全部按照省标准配备器材,演示实验开设率达 100% 。 学校现有图书 6050 册,生均 40 册。有一个 200 米环形跑 道的运动场地。 学校基本情况.
103 年新北市環保知識擂台賽培育計畫 新北市政府環境保護局 大 綱 計畫緣起 計畫期程及內容 計畫分工及配合事項 討論 Q&A 2.
第十二章 单位的政府职能及分解 何康康 黄旭峰 姚苏挺.
实验十十一 聚类算法.
長得像的圖形 設計者:嘉義縣興中國小 侯雪卿老師 分享者:高雄市中山國小 江民瑜老師 高雄市勝利國小 許嘉凌老師.
课例评析—— 《回乡偶书》和《渔歌子》 评课人:冯琴.
就作文本身而言,题目堪称“眉目”,是作文的“眼睛”,从某种程度上说,它是作文材料和主题的浓缩或概括。
专利技术交底书的撰写方法 ——公司知识产权讲座
文化创新的途径.
与优秀的人在一起
中国职教学会质量保障与评估研究会2016年学术年会
第八章 影响消费心理的社会因素 第一节 消费习俗的影响 第二节 流行对消费行为的影响 第三节 消费习惯与消费心理 第四节 感性消费与消费心理
壹、緣起 在「夢想大作戰」的主題裡,主要分為「個人挑戰」與「小組挑戰」兩個部份,當個人挑戰陸續完成後,緊接著進入小組挑戰的階段。
2009—2010学年第一学期 小学品德与社会课程教学监控情况分析 潘诗求 2010年3月
15世纪欧洲人绘制的世界地图.
3/5/2017 十二经脉 八、足少阴肾经.
第二组:栝蒌薤白白酒汤 讲解:何楠 资料收集:李哲豪 陶雪 PPT制作:周飘 李昕蓉 讲稿书写:邓楹君 黄丽.
第7课 新航路的开辟 第7课 新航路的开辟.
股票、债券、和保险 投资理财的话题.
都更條例修法到底在修啥?跟我們有什麼關係?
第二课 战国时期的 百家争鸣 呼伦贝尔学院附属中学:司顺英.
高考考试说明解读 --政治生活.
用“自言自语法”提高学生 英语口头表达能力 李奉栖.
电阻 新疆兵团四师76团中学.
解放軍論壇 中共信息戰發展 對我國軍事戰略之影響.
油画《蒙娜丽莎》 哥伦布像 以上图片产生于哪两个 历史事件中?.
外貌和能力哪个更重要.
从此,我不在沉默寡言 那一刻 就在这一刻 世上还有爸爸好 我 长 大 了 张绅 4 文苑芬芳
第四章 概率密度函数的非参数估计 2学时.
专题五 高瞻远瞩 把握未来 ——信息化战争 主讲教师:.
第23章 類神經網路 本章的學習主題  1.類神經網路的基本概念 2.類神經網路之應用 3.倒傳遞類神經網路
第十章 现代秘书协调工作.
四种命题 班级:C274 指导教师:钟志勤 任课教师:颜小娟.
从容行走,优雅为师 江苏省梁丰高级中学 任小文
网络游戏 对 大学生生活方式 影响 11影视动画2班 石天启组.
-Artificial Neural Network- Hopfield Neural Network(HNN) 朝陽科技大學 資訊管理系 李麗華 教授.
概率论与数理统计 2.1 随机变量与分布函数.
觀察內容: 時間 作息 觀察內容 9:30~9:40 角落分享
做好高考试卷分析,让教学精准发力 --近5年新课标高考数学选择题分析及2017年高考备考建议
第一章 总 则 第一条 宗旨 为提高****集团人力资源管理的科学化水平,强化内部的人才竞争机制,促进人力资源的合理开发与利用,在集团组织内部构建科学、合理的人力资源管理框架,理顺职位上等级秩序,提供员工发展的跑道,为集团其他人力资源管理制度建立规范的运作平台,特制定本制度。 第二条 性质.
2017年9月12日4时43分 词学家的词韵与音韵学家的词韵 鲁国尧. 2017年9月12日4时43分 词学家的词韵与音韵学家的词韵 鲁国尧.
导入 21世纪教育网经纬社会思品工作室制作 我们可以通过哪些媒介(途径)获知这些消息?.
好好國際物流股份有限公司 全球運籌物流服務建議 中 華 貨 物 通 關 自 動 化 協 會 理 事 長 劉 陽 柳 二○○二年五月十五日
深層學習 暑期訓練 (2017).
-Artificial Neural Network- Adaline & Madaline
十二生肖的故事.
Source: IEEE Access, vol. 5, pp , October 2017
Advanced Artificial Intelligence
類神經網路簡介 B 朱峰森 B 梁家愷.
学习中苦多?乐多? ——高二(1)班主题班会.
第三章 PLC基础 掌握PLC工作原理、结构特点。 熟悉基本逻辑指令、顺序控制指令及常用的功能指令。 具备PLC应用系统设计初步能力。
前向人工神经网络敏感性研究 曾晓勤 河海大学计算机及信息工程学院 2003年10月.
Chapter 8 運用現代對稱式金鑰 加密法之加密技術.
公 共 关 系 主编:谢苏.
资金时间价值概述 主讲人 任晓宇 去除PPT模板上的--无忧PPT整理发布的文字 首先打开PPT模板,选择视图,然后选择幻灯片母版
Neural Networks: Learning
李宏毅專題 Track A, B, C 的時間、地點開學前通知
長者自務學習計劃運作模式 高秀群女士 黃燕卿女士 顧佩君女士 21/12/2005.
第13课 东汉的兴亡.
第五課 詞選 浪淘沙  李煜 水調歌頭 蘇軾 一翦梅  李清照 .
U3A 第三年齡大學 天主教會的古老生態 源自歐洲天主教會生活習慣 (參加106年教育部推展的自主學習團體得知)
计算机问题求解 – 论题 串匹配 2017年5月3日.
繁星推薦系統 楊曉婷 副理 教育的服務 是我們的責任.
單元主題名: 大家都是好朋友 設計者:柯淑惠、林雨欣.
Presentation transcript:

Probabilistic Neural Network (PNN) 機率神經網路

機率神經網路(PNN) 1988年D. F. Specht提出 監督式學習 並非如Boltzmann machine一般以機率的方式進行運算 是一個四層的網路結構,能將任一個輸入向量對應到任一個分類 一個輸入層 三個計算層

機率神經網路(續) Outputs Summation units (one for each class) Pattern units Inputs

機率神經網路(續) 學習速度極快(學習時間幾近於0) 缺點 連結權重值採一次設定,直接由training patterns載入所需數據,無epoch的過程 缺點 所需記憶體較大 有多少組training patterns就必須有多少的pattern units 回想速度較慢

機率神經網路(續) 原理 由機率模式(貝氏分類器,Bayesian classifiers)所啟發 一群具有n維輸入向量的訓練範例,可視為一n維空間中的一群樣本點,藉由這些樣本點估計整個樣本空間中各分類的機率密度函數 令x為一n維的輸入向量特徵目標,屬於K個可能分類中的一個分類 令f1(x), f2(x), …, fK(x)為已知的K個分類的機率密度函數

機率神經網路(續) 令p1, p2, …, pK為每個特徵向量x所屬正確分類的先驗機率(priori probabilities) 假令一個決定函數d(x)=Ci , i=1,2,…,K,表示向量x的最佳分類為Ci 而令L1, L2, …, LK為分類錯誤的損失函數,d(x)  Ci , i  j 且x Cj 假若分類正確則其損失為0 貝氏決定法則 令每一個product的機率為

機率神經網路(續) 先驗機率的pi決定 假如沒有可供利用的資訊來決定損失函數,則可將其值皆設為相同 機率密度函數的評估 選擇一個符合分類的最大product value 假如 則將x指定為Ci分類 先驗機率的pi決定 按每個輸入範例所屬每個分類的比例可得 假如沒有可供利用的資訊來決定損失函數,則可將其值皆設為相同 機率密度函數的評估 n : 輸入向量的維度 ki : 訓練範例在Ci分類的個數 xij : 第j個訓練範例屬於第i個分類  : 平滑參數

機率神經網路(續) 訓練過程 在處理前先將所有的輸入範例正規化(1,-1) Input層與Pattern層藉權重值進行全連結 Pattern層共有P個神經元(訓練範例總數) 權重值的設定依連結的輸入向量值來決定 Pattern層的各神經元進行輸入向量與權重值向量間的dot運算 因而決定第j個pattern-layer的神經元輸出值

機率神經網路(續) Pattern-layer的輸出被指定連結到Summation-layer原有已知的分類神經元 輸出層是一個二元的輸出值,其每個神經元都有兩個輸入連結,Summation-layer與Output-layer之間的權重值以下式決定

機率神經網路(續) 範例 A B XOR function #1 (-1,-1)0 (Class A) UA=1 UB=Ck=-1 範例 A B XOR function #1 (-1,-1)0 (Class A) #2 (-1, 1)1 (Class B) #3 ( 1,-1)1 (Class B) #4 ( 1, 1)0 (Class A) #1 #2 #3 #4 -1 -1 –1 1 1 -1 1 1 (-1 -1) (-1 1) ( 1 -1) ( 1 1 )

機率神經網路(續) 假設=1 計算Pattern-layer的輸出 #1 (-1-(-1))2+(-1-(-1))2=0 Output=e-0/2=1 #2 (-1-(-1))2+(-1-1)2=4 Output=e-4/2=0.135 #3 (-1-1)2+(-1-(-1))2=4 Output=e-4/2=0.135 #4 (-1-1)2+(-1-1)2=8 Output=e-8/2=0.018 Class A : (1+0.018)/2=0.509 Class B : (0.135+0.135)/2=0.135 Decision : 0.509*UA+0.135*UB=0.509-0.135=0.374>0 所以分到Class A

機率神經網路(續) 平滑參數的選定 適用於 Pattern-layer的神經元輸出精確性受平滑參數所控制 當平滑參數趨近於0時 其機率密度函數=0,分類數=1 當平滑參數趨近於無限大時 其機率密度函數=1,分類數=盲目分類 一般選定範圍為[0.1, 1],通常可取0.5 適用於 故障診斷、訊號分類