-Artificial Neural Network(ANN) - Chapter 1 Introduction

Slides:



Advertisements
Similar presentations
高考短文改错专题 张柱平. 高考短文改错专题 一. 对短文改错的要求 高考短文改错的目的在于测试考生判断发现, 纠正语篇中 语言使用错误的能力, 以及考察考生在语篇中综合运用英 语知识的能力. 二. 高考短文改错的命题特点 高考短文改错题的形式有说明文. 短文故事. 书信等, 具有很 强的实用性.
Advertisements

期末考试作文讲解 % 的同学赞成住校 30% 的学生反对住校 1. 有利于培养我们良好的学 习和生活习惯; 1. 学生住校不利于了解外 界信息; 2 可与老师及同学充分交流有 利于共同进步。 2. 和家人交流少。 在寄宿制高中,大部分学生住校,但仍有一部分学生选 择走读。你校就就此开展了一次问卷调查,主题为.
Artificial Neural Network 人工神经网络.
Presented By: 王信傑 Ricky Wang Date:2010/10/6
Shanghai University of Traditional Chinese medicine
Unsupervised feature learning: autoencoders
指導教授:陳牧言 老師 組員:資管四1 劉柏駿 陳柏村 蔡信宏 李志誠 洪聲甫 李紹剛
資料採礦與商業智慧 第四章 類神經網路-Neural Net.
二維品質模式與麻醉前訪視滿意度 中文摘要 麻醉前訪視,是麻醉醫護人員對病患提供麻醉相關資訊與服務,並建立良好醫病關係的第一次接觸。本研究目的是以Kano‘s 二維品質模式,設計病患滿意度問卷,探討麻醉前訪視內容與病患滿意度之關係,以期分析關鍵品質要素為何,作為提高病患對醫療滿意度之參考。 本研究於台灣北部某醫學中心,通過該院人體試驗委員會審查後進行。對象為婦科排程手術住院病患,其中實驗組共107位病患,在麻醉醫師訪視之前,安排先觀看麻醉流程衛教影片;另外對照組111位病患,則未提供衛教影片。問卷於麻醉醫師
Java Programming Hygiene - for DIDC
智慧型系統在知識管理之應用 報告人:陳隆輝 高雄師範大學事業經營學系.
数 学 与 工 程 的 对 话 中山大学 信息科学与技术学院 李硕彦教授演讲 (10月21, 24日) 李硕彦 ( Bob Li ) 简介:
第23章 類神經網路 本章的學習主題  1.類神經網路的基本概念 2.類神經網路之應用 3.倒傳遞類神經網路
-Artificial Neural Network- Hopfield Neural Network(HNN) 朝陽科技大學 資訊管理系 李麗華 教授.
Chapter 8 Liner Regression and Correlation 第八章 直线回归和相关
人工神经网络方法简介. 人工神经网络方法介绍 b 概况 b 原理及计算方法 b 气象中的应用.
XI. Hilbert Huang Transform (HHT)
CHT Project Progress Report
深層學習 暑期訓練 (2017).
Homework 4 an innovative design process model TEAM 7
-Artificial Neural Network- Adaline & Madaline
指導教授:許子衡 教授 報告學生:翁偉傑 Qiangyuan Yu , Geert Heijenk
Population proportion and sample proportion
第四章 人工智慧演算法 2018/9/19.
第九届机器学习 及其应用研讨会 2011年11月,清华大学 机器学习的困惑 与历史的启示 王珏.
資訊管理 第九章 資料採礦.
模式识别 Pattern Recognition
Manifold Learning Kai Yang
Differential Equations (DE)
第三章 生物神經網路 與類神經網路 類神經網路 台大生工系水資源資訊系統研究室.
Special English for Industrial Robot
The Empirical Study on the Correlation between Equity Incentive and Enterprise Performance for Listed Companies 上市公司股权激励与企业绩效相关性的实证研究 汇报人:白欣蓉 学 号:
姓名:何康綸 學號:M 指導教授:楊朝平 博士
Source: IEEE Access, vol. 5, pp , October 2017
On Some Fuzzy Optimization Problems
Decision Support System (靜宜資管楊子青)
信号与图像处理基础 An Introduction to Signal and Image Processing 中国科学技术大学 自动化系
陳葉雅薇女士 優化小班教育協作計劃交流活動 提問與課堂動態 陳葉雅薇:請勿覆製
创建型设计模式.
Advanced Artificial Intelligence
Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi
971研究方法課程第九次上課 認識、理解及選擇一項適當的研究策略
子博弈完美Nash均衡 我们知道,一个博弈可以有多于一个的Nash均衡。在某些情况下,我们可以按照“子博弈完美”的要求,把不符合这个要求的均衡去掉。 扩展型博弈G的一部分g叫做一个子博弈,如果g包含某个节点和它所有的后继点,并且一个G的信息集或者和g不相交,或者整个含于g。 一个Nash均衡称为子博弈完美的,如果它在每.
Probabilistic Neural Network (PNN)
Formal Pivot to both Language and Intelligence in Science
神经信息学 自组织网络 ——自组织映射 史忠植 中科院计算所 2019/2/2.
Decision Support System (靜宜資管楊子青)
人工智慧:學習.
類神經網路簡介 B 朱峰森 B 梁家愷.
谈模式识别方法在林业管理问题中的应用 报告人:管理工程系 马宁 报告地点:学研B107
資料結構 Data Structures Fall 2006, 95學年第一學期 Instructor : 陳宗正.
Version Control System Based DSNs
研究技巧與論文撰寫方法 中央大學資管系 陳彥良.
-Artificial Neural Network(ANN)- Self Organization Map(SOM)
汉英翻译对比练习.
前向人工神经网络敏感性研究 曾晓勤 河海大学计算机及信息工程学院 2003年10月.
虚 拟 仪 器 virtual instrument
关联词 Writing.
高考应试作文写作训练 5. 正反观点对比.
Neural Networks: Learning
An organizational learning approach to information systems development
李宏毅專題 Track A, B, C 的時間、地點開學前通知
Introduction of this course
(二)盲信号分离.
An Quick Introduction to R and its Application for Bioinformatics
第六章 自組性類神經網路 類神經網路.
主要内容 什么是概念图? 概念图的理论基础 概念图的功能 概念地图的种类 如何构建概念图 概念地图的评价标准 国内外概念图研究现状
神经网络 Statistical Learning 方匡南 厦门大学教授 博士生导师.
WiFi is a powerful sensing medium
Gaussian Process Ruohua Shi Meeting
Presentation transcript:

-Artificial Neural Network(ANN) - Chapter 1 Introduction 朝陽科技大學 資訊管理系 李麗華 教授

Background 自古人類即對”人”為什麼能有這麼多能力很好奇,人類也不斷的從生物的角度來觀察人的智慧如何產生及如何運作,在電腦最早期時(1940年代)即有許多學者提出許多模擬人類的一些model,例如 AI 及 ANN。 朝陽科技大學 李麗華 教授

人類的好奇與探索花絮 1.解剖高手達文西(Leonardo da Vinci): 他不但是義大利的建築師、雕刻家、發明家、 工程師、畫家,他也是位解剖學者,達文西共解剖了30具人體,依解剖內容繪製超過200篇畫作,其中包含腦的頭骨形態及腦部不同的交叉截面圖(橫斷面、縱切面、正切面) 。他的手稿亦包含論人的記憶、智力等。(資料來源:http://zh.wikipedia.org/) 2. 愛因斯坦大腦人人愛 1985年,第一篇研究愛因斯坦大腦的報告問世,由美國神經科學家戴蒙(Marian Diamond)領銜。他們發現,愛因斯坦的左頂葉,神經元與神經膠細胞的比例小於常人。根據過去的研究,哺乳類神經元與神經膠細胞比例,從小鼠到人有逐步降低的趨勢,有些學者因而推測,神經元執行的功能越複雜,越需要神經膠細胞的支持。第二篇研究論文發表於1996年,由神經學安德森(Britt Anderson)助理教授提出,愛因斯坦的大腦皮質中,神經元密度較高。這表示愛因斯坦大腦皮質神經元有較佳的傳訊效率,因而可以解釋愛因斯坦的超卓天才。 (資料來源:http://tw.epochtimes.com/bt/4/12/31/n765455.htm) 朝陽科技大學 李麗華 教授

Biological Neural 人類自古即對解開人類的大腦及如何思考有極大的興趣。早期學者欲透過人腦的結構及運作方式,思考人腦的奧妙 人腦:大約有1000億個神經細胞 (neuron),每個神經細胞約有 1000個神經連結 (共約有100萬億根的神經連結) 神經細胞主要元素: - Cell body(neuron)神經元, - Nucleus(神經核), - Axon(神經軸), - Dandrites(神經樹), - synapse(神經節) 作用方式: 可傳導化學物質, Two Status:Excitatory/Inhibitory 朝陽科技大學 李麗華 教授

Question: What is this? A Slice of Neurons

Examples of multipolar cells [Kan91] Spinal motor neuron Hippocampal pyramidal cell Purkinje cell of cerebellum Examples of multipolar cells [Kan91] 朝陽科技大學 李麗華 教授

Expanded view of single neuron morphology [Kan91] Inhibitory terminal fiber of an axon Excitatory Terminal fiber of an axon Presynaptic cell Postsynaptic cells Terminal Axon (initial segment) Axon Node of Ranvier Dendrite Myelin sheath Axon hillock Nucleus Perikaryon Cell body Basal dendrites Apical dendrites Presynaptic terminal Synaptic cleft Postsynaptic dendrite Expanded view of single neuron morphology [Kan91] 朝陽科技大學 李麗華 教授

Introduction to ANN Def: A structure (network) composed of a number of interconnected units (artificial neurons). Each unit has an I/O characteristic and implements a local computation or function. The output of any unit is determined by its I/O characteristic, its interconnection to other units, and (possibly) external inputs. Although “hand crafting” of the network is possible, the network usually develops an overall functionality through one or more forms of training. 朝陽科技大學 李麗華 教授

Introduction to ANN 中文的 定義: 類神經網路是一種計算系統,包括軟體與硬體,它使用大 量簡單的相連人工神經來模仿生物神經網路的能力. 人工神經是生物神經的簡單模擬,它從外界環境或者其它 人工神經取得資訊,並加以簡單運算,並將其結果輸出到 外界環境或者其它人工神經元. 朝陽科技大學 李麗華 教授

ANN History Creation Age(孕育期)(before1956) Birth Age(誕生期)(1957-1968) Dark Age(挫折期)(1969-1981) Reborn Age(重生期)(1982-1986) Mature Age(成熟期)(1987~present) 朝陽科技大學 李麗華 教授

Creation Age In 1943, McCulloch & Pitts first proposed the neural mathematical model, earlier than the first computer were created. Their premises(assumptions) are: Neuron has two status, i.e., all or none. (excitatory or inhibitory) A neuron is triggered by certain amount of accumulated synapses and the trigger action has nothing to do with the previous status. Only synapse can be delayed. When under inhibitory status a neuron can not be trigged. The neuron net structure is not changed. 朝陽科技大學 李麗華 教授

Creation Age In 1949, Hebb proposed the Hebb learning rule: Information resides in Synapes learning rule symmetrical weights When a group of weak neurons is triggered, the strength of connection between them is increased. (即鄰近neuron的訊號可以累積增強weights的值) 朝陽科技大學 李麗華 教授

Birth Age In 1957, Rosenblatt proposed the first network model, i.e., perceptron. (即感知器;當時僅有單層架構) In 1960, Widrow porposed another model, i.e., Adaline.(這是屬於連續值的線性網路, 己開始採用 learning rule與當時人工智慧邏輯推理很不同) 朝陽科技大學 李麗華 教授

Dark Age In 1969, Minsky & Papert proved that Perceptron has limited learning usage, because this model cannot solve the XOR problem. (註) 因當時AI較紅,電腦速度慢, 由於被Minsky的證明 困住等原因,ANN研究因此而限於低潮) 但此 時期仍有: 芬蘭的Kohonen所提出的Self Organization Map(SOM)與 Grossberg學者等提出 Adaptive Resonance Theory(ART) model. 朝陽科技大學 李麗華 教授

Reborn Age In 1982, Hopfield proposed the Hopfield Network and the Auto-associative Memory Models. Again, in 1985, Hopfield proposed another Hopfield & Tank Network to solve the Traveling Salesman Problem. After these researches, the ANN models were again treated as a promising research area . In 1986, Rumelhart et al. introduced the BPN in their book: “Parallel Distributed Processing” in which generalized delta rule are explained. In addition, they explain how BPN can solve the XOR problem. Until 1990, BPN had become one of the most popular and highly utilized ANN model. 朝陽科技大學 李麗華 教授

Mature Age Up to now, the ANN models has been widely studied and many models has been proposed. Conferences and Journals are created for ANN studies, such as ICNN(International Conference on NN, IJCNN( International Joint Conference on NN, held by IEEE & INNS). Besides, many tools and software,such as SNNS and MatLab, are been developed for making applying NN easier. 朝陽科技大學 李麗華 教授

The Node Characteristics of ANN Input: training sets(or training patterns), [X1, X2, …., Xn]. Output: computed output, [Y1,Y2,…,Yj], testing sets[T1,T2,…,Tj] Connections: Weights, Wij. Processing Element(PE): summation function, activity function, & transfer function. Summation Ij Activity fc. netj Transfer fc. F(netj) Output Yj X1 X2 Xn 朝陽科技大學 李麗華 教授

視覺應用案例 人腦 眼 睛 看 朝陽科技大學 李麗華 教授

視覺應用案例 模擬人腦的判斷要項 眼 睛 看 形狀 大小 輪廓 速度 朝陽科技大學 李麗華 教授

Types of ANN 依學習型式: Supervise Learning: 運用已知的一組輸入範例及預期答案來訓練網路,例如: Perceptron, BPN, PNN, LVQ, CPN Unsupervise Learning: 不斷透過輸入的範例來做學習與修正網路, 例:SOM, ART Associative memory Learning: 直接訓練並記憶所訓練過的所有對照資料or 圖形, 例: Hopfield, Bidirectional Associative Memory(BAM), Hopfield-Tank Optimization Application:找尋最佳解, 例: ANN, HTN 朝陽科技大學 李麗華 教授

Types of ANN 依網路架構型態: Feedforward (one-way) Feedforward (Two-way) Feedback 朝陽科技大學 李麗華 教授

Feedforward (one-way) X1 X2 Xn 朝陽科技大學 李麗華 教授

Feedforward (two-way) X1 X2 Xn 朝陽科技大學 李麗華 教授

Feedback (one-way) Y X1 X2 Xn 朝陽科技大學 李麗華 教授

監督式 非監督式 朝陽科技大學 李麗華 教授

(a)差距法則 (b)通用差距法則 (c)波茲曼機學習法則 監督式網路之學習法則類型 朝陽科技大學 李麗華 教授

Problem Solving Area Classification Optimization Clustering Control Prediction Memorizing Learning Optimization Control Recognition Decision-making 朝陽科技大學 李麗華 教授

Classification problem Classification line y Paremeters 朝陽科技大學 李麗華 教授

Application Area 投資決策 稅務稽查 信用評估 管制圖判讀 代款審核 生產製程變數預測 債券分級 顧客篩選 醫學診斷 氣象預測 儀器分析 目標追蹤 電腦音樂 專家系統 信用評估 管制圖判讀 生產製程變數預測 顧客篩選 銷售預測 製程監控 石油探勘 汽車診斷 工廠排程 資源配置 股價預測 朝陽科技大學 李麗華 教授

Example using ANN model The credit prediction for a customer who applys for loan. <<Input>> 1.Customer’s salary 2.Customer’s house debt 3.Customer’s car debt 4.Customer’s average living cost 5.Customer’s credit history <<Output>> 1.O.K. Qualified for loan 2.Sorry, no new loan is available for the loaner. ANN Model 朝陽科技大學 李麗華 教授

The comparison of ANN with Regression(1/2) Variable prediction vs. Regression Analysis For regression, the main task is to find out the parameters a0,a1,a2,a3,…an . Therefore, Regression can be used to do the classification or prediction. However, if the problem is belongs to non-linear type, then it will become difficult to solve. ANN is good for the nonlinear problem, especially when the problem is very complex. 朝陽科技大學 李麗華 教授

The comparison of ANN with Regression(2/2) ANN vs. Regression The ANN advantages: Can solve non-linear problem Parameters can be modified easily Easy to construct the model Accepts any type of input ANN vs. Regression  The disadvantage: Takes time to find the global minimum(the best solution) May be over learning 朝陽科技大學 李麗華 教授

The comparison of ANN with Time Series Based on the (time) history values to predict future results. EX: prediction of stock market, prediction of volcano eruption 朝陽科技大學 李麗華 教授

The comparison of ANN with Decision Making By Applying the same inputs to find out which fi has the best outcome. The decision is made based on the best outcome. EX: Credit evaluation, Scheduling, Strategic decision 朝陽科技大學 李麗華 教授

類神經網路模式列表(1/3) 分類 項目 模式 主要研發者 研發年代 主要應用 主要特點 監 督 式 感知機 F. Rosenblatt 1957 字母識別 目前已多改為multilayer network做應用 無法解XOR問題 模式最簡單 發展最早 倒傳遞網路 P. Werbos D. Parker D. umelhart 1974-1985 樣本識別 分類問題 函數合成 適應控制 雜訊過濾 資料壓縮 專家系統 可解XOR問題 應用最普遍 成功案例多 學習精度高 學習速度慢 回想速度快 理論簡明 朝陽科技大學 李麗華 教授

類神經網路模式列表(2/3) 分類 項目 模式 主要研發者 研發年代 主要應用 主要特點 監 督 式 機率神經網路 D. F. Specht 1988 樣本識別分類問題 學習速度快 回想速度慢 理論簡明 學習向量量化網路 T. Kohonen 樣本識別 分類問題 回想速度快 朝陽科技大學 李麗華 教授

類神經網路模式列表(3/3) 分類 項目 模式 主要研發者 研發年代 主要應用 主要特點 聯 想 式 自組織映射圖 T. Kohonen 1980 聚類問題 拓撲映射 具有臨近區域觀念 學習速度快 自適應共振理論 G. A. Carpenter S. Grossberg 1976-1986 樣本識別 網路具穩定性 網路具可塑性 具警戒值觀念 最適 式 霍普菲爾坦克網路 J. Hopfield D. Tank 1985 組合最適化問題 較不易陷入局部最小值 退火神經網路 D. E. Ven den Bout T. K. Miller 1988 朝陽科技大學 李麗華 教授

Typical Learning Methods for Basic Learning Strategies Learning Strategy Supervised Delta Rule Backpropagation Hebbian Stochastic Reinforcement Learning Automata Unsupervised Competitive Hebbian 朝陽科技大學 李麗華 教授

Categories of Network Types by Broad Learning Method Learning Strategy Unsupervised ART Hopfield LVQ Neocognitron SOFM Supervised ADALINE Boltzmann Cascade Correlation GRNN Hopfield LVQ MLFF with BP PNN RBF RNN RCE Reinforcement 朝陽科技大學 李麗華 教授

Categories of Network Types by Learning Type Error Correction ADALINE CCN GRNN Hopfield MLFF with BP Perceptron RBF RNN Hebbian AM BSB BAM Hopfield Neocognitron Competitive ART CPN LVQ SOFM Stochastic Boltzmann Mchine Cauchy Machine 朝陽科技大學 李麗華 教授

Categories of Network Types by Architectural Type Architecture Type Singer Layer Feedforward ADALINE AM Hopfield LVQ Perceptron SOFM Multilayer Feed Forward CCN GRNN MADALINE MLFF with BP Neocognitron RBF RCE Recurrent ART BAM Boltzmann Mchine Cauchy Machine Hopfield RNN 朝陽科技大學 李麗華 教授

Categories of Network Types by Application Type Associative Memory ART AM BAM BSB Hopfield MLFF with BP Optimization ADALINE Boltzmann Hopfield MLFF with BP RNN SOFM Classification ADALINE ART CCN CPN GRNN LVQ MLFF with BP RBF RCE SOFM Pattern Recognition ART CCN CPN GRNN LVQ MLFF with BP RBF Neocognitron RCE SOFM General Mapping CCN GRNN Prediction ADALINE CCN GRNN MADALINE MLFF with BP RBF RNN SOFM 朝陽科技大學 李麗華 教授

Neural Network Taxonomies Perceptron Hopfield ADALINE (Adaptive Linear Neural Element) MADALINE (Multilayer ADALINE) BPN (Back Propagation Network) ART (Adaptive Resonant Theory) AM (Associative Memories) BAM (Bidirectional Associative Memory) Boltzmann Machine CCN (Cascade Correlation) CPN (Counter Propagation Network) GRNN (Generalized Regression Neural Network) 朝陽科技大學 李麗華 教授

Neural Network Taxonomies LVQ (Learning Vector Quantization) MLFF with BP (Multilayer Feedforwad Backpropagation) PNN (Probabilistic Neural Network) RBF (Radial Basic Function) RNN (Recurrent Neural Networks) SOM (Self-Organizing Map) or SOFM (Self-Organizing Feature Map) NLN (Neurologic Networks) 朝陽科技大學 李麗華 教授