MNIST 手寫數字影像辨識.

Slides:



Advertisements
Similar presentations
元大京華證券 組員名單 : A 楊之奇 A 廖本揚 A 宋俊承 A 陳冠廷 A 郭峻瑋 A 指導教授 : 許素華 副教授.
Advertisements

達悟族報告 作者 : 林琪崴, 許原碩 座號 :13 號,14 號 原碩負責 : 簡介, 傳說, 圖驣, 達悟族飛魚季, 琪崴 : 地理位置, 土地利用方式, 飲食文化, 豐收祭.
主讲:张天明 影像艺术工程师. 声音的聆听 指出听到的是什么物体发出的声音,这一 声音是在什么样的空间环境中传播的。 一、 答案: 1 、打气筒打气的声音 2 、手打打气筒给足球打气的声音 3 、手打打气筒给自行车轮胎打气的声音 4 、七次(七声)打气筒打气的声音 5 、(气流)摩擦的声音 6 、猪在发急时的叫声.
概念導向命題技巧與試題分析 臺灣師大地理系 陳國川. 教學評量是一種『抽樣調查』 實施教學評量時,需具備二項條件: 其一,瞭解命題的理論及其實踐的方法; 其二,瞭解各種題型的功能與命題方式。 壹、前言.
第十八章 林肯大郡 第十八章 林肯大郡災變緊急搶救應變措施 1997 年 8 月 18 日溫妮颱風襲台,汐止鎮 的林肯大郡山崩,遭崩場土石撞擊 1997 年 8 月 18 日溫妮颱風襲台,汐止鎮 的林肯大郡山崩,遭崩場土石撞擊造成二十八人罹難八十戶住宅倒塌的慘劇 此災變要喚起國人的重視 本章介紹搜救行動緊急應變措施。
高峰植物園行前解說 2005/12/07 By 羽明. 陽性先驅物種 陽性植物 --- 陽光需求量大 陰性 ( 或耐蔭性 ) 植物 --- 陽光需求量少, 或 日照太強反而無法生存 先驅植物 --- 森林大火或土石流地震後產生的 裸露空地, 先生長出來的植物.
報 告 人 : 胡 嘉 琪 ˙ˇ˙ 、 王 紫 庭 = ˇ = 台灣夜市文化 作者: 郭明澤‧私立明道高中‧綜二 4 班 馬炯修‧私立明道高中‧綜二 4 班.
5 ˙ 1 第五章 生物的協調作用 5 ‧ 1 神經系統. 5 ˙ 1 人體的神經系統 1. 協調動物生理反應的系統: 神經 系統、 內分 泌 系統。 2. 神經系統負責 統整 和 協調 。分為 中樞 神經 和 周圍 神經。 (1) 中樞神經包括 腦 和 脊髓 。 (2) 周圍 神經包括 腦神經 和.
从《西游》看大学生的成长 主讲人:颜廷学 时间: 地点:演艺大楼流行剧场.
新员工培训 设计部 思安新能源股份有限公司 主讲人: 韩少华 时 间:
前言:河流的主要功能 1. 交通運輸 優點-運費低廉,維護費用低 缺點-速度慢,裝載費時,不能到達生產區或消費區 的末端,需要轉載。 尚受到河流網路,河口位置,水量變化,河床 狀況,冰封時期 2. 水資源系統.
幽夢影~張潮 小佑子工作室 關於《幽夢影》 作者張潮,記寫他個人對人生世事之體驗透悟的 書。 書中文字,全為「語錄」形式,屬於格言,也是 最精鍊的隨筆。 全書可分為九卷:論才子佳人、論人與人生、論 朋友知己、論讀書、論閒情逸趣、論立身處世、 談文論藝、論四時佳景、論花鳥蟲魚。
成人高考高起点 语文 冲刺班 主讲老师:邓君媚. 复习指导 高考语文含四大块内容: 语言知识和语言表达,古代诗文阅读,现 代文阅读,写作。 在全面复习的前提下,按照《考试大纲》 的要求,要做好思路整理,建立高考的整体框 架的工作。认真归纳整理基础知识、培养基本 能力,复习做到有的放矢。 复习指导.
老师,我可以不 爱 吗? 山东省淄博市张店区实验中学 杜桂兰 星期一的早晨,我紧张而又兴奋,因为 我的赛教课就要开始了。 这是一次级别很 高 的竞赛。
财政部 国家税务总局 中国人民银行(央行) 银监会 证监会 保监会. 法定存款准备金率 利率 税率 政府投资 楼继伟,周小川,易纲.
油蔴菜籽 指導老師:陳瑜霞 學生: 商設一甲 謝旻璇 車輛三乙 許勝傑 工管四甲 彭凱雲. 作者介紹: 廖輝英( 1948 年生)臺大中文系畢業。 從初三開始寫作,早期作品多以散文為主,大四 畢業時才暫時封筆。畢業後進了廣告界,成為廣 告文案好手,後為企畫主管,在廣告界縱橫十餘 年,也曾任職於建設公司,辦過社區報高雄一周。
蘭嶼情人洞傳說 林庭羽製 林庭羽製. 台灣的蘭花特別多,台灣有個蘭 嶼島,島上面的蘭花更多.所以 叫蘭嶼.這裡留下了動人的傳說。
職業訪談報告. 成員 : 鐘怡君 劉沛君 謝明達 賴映辰.
南台科大幼保實習課程 見習幼兒園心得報告 夜四技幼保四甲 998i0021 黃欣婷.
博奥文明之旅团支部 ——师范学院小学教育专业063团支部.
第一章 生殖 1‧2 無性生殖.
高教三十条 — 科技创新能力提升 科技创新能力提升工程方案起草小组 2013年7月4日.
你不可不知之 十二年國教二三事 教務主任:傅瑞琪.
鞋 楦 的 材 質.
最古怪的15種動物.
思想道德修养与法律基础 ( 2013修订版) 第一章 追求远大理想 坚定崇高信念.
走! 一起去拜訪筏子溪.
台灣文學館之旅.
單車環島之旅 組員: 495D0072 胡閎智 495D0074 何冠緯 495D0020 王怡雯 495D0047 葉亭君
 耕地分割 及 執 行 內政部地政司 視察:林玲女.
~完備、周密、迅速 ~ 行政院農業部畜產試驗所
建筑设计基础讲义 (02-1) 建筑水彩渲染.
現代文學導讀 (中國現代散文發展的歷史軌道)
谨以此文—— 送给所有的人.
方 孝 孺 指喻.
保護地球人人有責:我能做的事 若想讓地球、人類社會明天會更好的話,可以考慮日常生活中採取什麼綠色行動,逐步恢復按上天設計大自然規定的方式做人,從而減少個人的「生態足印」,爭取可以延續的未來。 
小 王 子 <第六組> 組長: 謝汶芳 組員: 劉佳蓉 曹展愛 陳建妏
據說: 烏鴉有四種--- 巨烏 祥烏 鳳烏 慈烏~ 知恩 感恩 報恩.
政府採購法規概要 報告人:杜國正 行政院公共工程委員會企劃處.
分類:基本概念、決策樹與模型評估.
大规模深度学习算法 Deep Belief Network及其应用
之 魔 析 妖 鬼 解 怪 大 沈家仪小组出品.
建筑工程项目管理.
99年成語200題庫(21-40).
北京市第八十中学高中部 2006—2007学年度教育工作布置会.
第九章 长期资产及摊销 2017/3/21.
导入:找问题 在一个初中课堂上,老师讲了这样一个故事:有三只猎狗追一只土拔鼠,土拔鼠钻进了一个树洞。这只树洞只有一个出口,可不一会儿,从树洞里钻出一只兔子,兔子飞快地向前跑,并爬上一棵大树。兔子在树上,仓皇中没站稳,掉了下来,砸晕了正仰头看的三只猎狗,最后,兔子终于逃脱了。
第四章 倒傳遞類神經網路 類神經網路.
陳維魁 博士 儒林圖書公司 第九章 資料抽象化 陳維魁 博士 儒林圖書公司.
Views ,Stored Procedures, User-defined Function, Triggers
关于对新型农村合作医疗制度实行现状的调查
100學年度第2學期 邏輯設計實習TA訓練 機 台 介 紹.
Speaker : YI-CHENG HUNG
分類:基本概念、決策樹與模型評估.
安裝JDK 安裝Eclipse Eclipse 中文化
視覺式體操動作辨識系統 Vision-based Gymnastics Motion Recognition System 學生:顏羽君
CH03 資訊管理的智慧觀點:技術篇.
TA教育訓練 微處理機系統實習.
从美国大选与中共十八大 看我国政治性新闻传播 刘 通.
-Artificial Neural Network- Matlab操作介紹 -以類神經網路BPN Model為例
田口方法應用於語音辨識 報告者:李建德.
Convolutional Neural Network
DRC with Calibre 課程名稱:VLSI 報告人:黃家洋 日期: 改版(蔡秉均) 1.
中国农业科学院博士后学术论坛 博士后基金申请的经验及体会 中国农业科学院生物技术研究所 秦 华 博士
欠拟合与过拟合 龙沛洵
聚合型第一種:隱沒帶、島弧 例子:臺灣東方的琉球海溝、南美洲智利海溝. 聚合型第一種:隱沒帶、島弧 例子:臺灣東方的琉球海溝、南美洲智利海溝.
類神經網路之感知機簡介 Reporter:Ya-Zhong, Chen Network Application Lab.
Speaker : YI-CHENG HUNG
非負矩陣分解法介紹 報告者:李建德.
單元三:敘述統計 內容: * 統計量的計算 * 直方圖的繪製.
Presentation transcript:

MNIST 手寫數字影像辨識

Keras MNIST 手寫數字資料集 Training data : (60000,28,28) Training label: (60000,) Test data : (10000, 28,28) Test label: (10000,)

資料預處理 建立多層感知器模型必須先將內容進行資料預處理 資料預處理分為兩個部分 1.Features(數字影像特徵值)資料預處理 2.Labels(數字影像真實值)資料預處理

資料預處理 Features預處理分為兩個步驟 1. 28*28數字影像  784 , type:float

資料預處理 2. 數字影像Image的數字影像標準化

資料預處理 labels資料預處理 label原本是0~9的數字 10個0或1的組合 例如: 數字3經過one-hot encoding0001000000 數字7經過one-hot encoding0000000100 One-hot encoding

多層感知器模型(MLP)介紹 . 輸入層 隱藏層 輸出層 X1 X2 X783 X784 h1 h2 y9 y1 y0 h256 資料預處理

多層感知器(MLP)訓練與預測 多層感知器 資料預處理 模型 多層感知器 0~9的數字 模型 訓練 訓練 … 7 1 … 3 預測 預測結果 7 1 … 3 多層感知器 模型 0~9的數字 預測 預測結果 資料預處理 預測

流程圖 1.資料預處理 2.建立模型 3.訓練模型 4.評估模型準確率 5.進行預測

設定訓練方式 1.設定訓練與驗證比例 80%作為訓練資料60000×0.8 =48000筆 20%作為驗證資料60000×0.2=12000筆 2.設定epochs次數與每一批次筆數 Epochs=10 每一批次筆數=200 3.設定訓練過程 48000筆訓練資料,每一批次200筆 大約分為48000/200=240批次

MLP實驗 多層感知器 輸入層:784個神經元,隱藏層:256個神經元,輸出層:10個神經元 Epoch=10

MLP實驗 Test data: accuracy=0.9762

MLP實驗 多層感知器 輸入層:784個神經元,隱藏層:800個神經元,輸出層:10個神經元 Epoch=10 overfitting

Overfitting問題 Overfitting(過度訓練): 當可選擇的參數自由度超過資料所包含的資訊內容時, 這會破壞模型一般化得能力。 解決方法: 1.增加數據量, 大部分過擬合產生的原因是因為數據量太少了。 2.加入DropOut功能,在訓練的時候,我們隨機忽略掉一些神 經元和神經元的連結,讓每一次預測結果都不會太過依賴於 其中某部分特定神經元。

多層感知器加入DropOut功能 增加DropOut功能:為了解決Overfitting的問題 例如: DropOut(0.5)放棄隱藏層中50%的神經元 DropOut(0.25)放棄隱藏層中25%的神經元

隱藏層800個神經元並加入DropOut功能 X1 X2 . . . . . . . . . . . . . X784 h1 h2 . . . . . . . . . . . . . X784 h1 h2 . . . . . . . . . . . . . h800 y0 y1 . . . . . . . . . . . . . y9

MLP實驗 多層感知器 輸入層:784個神經元,隱藏層:800個神經元,輸出層:10個神經元 Epoch=10 加入DropOut(0.5) 改善overfitting

Confusion matrix 混淆矩陣(Confusion matrix)是一種對分類模型進行效果評估的 方法 通過將模型預測的數據與測試數據進行對比,使用準確率, 覆蓋率和命中率等指標對模型的分類效果進行度量。

MLP實驗 Confusion matrix 多層感知器 輸入層:784個神經元,隱藏層:800個神經元,輸出層:10個神經元 Epoch=10 加入DropOut(0.5) Confusion matrix

CNN卷積神經網路介紹 CNN卷積神經網路分為兩個部分 1.影像的特徵提取 透過卷積層1、池化層1、卷積層2、池化層2,提取影像特徵。 2.完全連結神經網路 包含平坦層、隱藏層、輸出層,所組成的類神經網路。

CNN卷積神經網路介紹 輸入層 . 平坦層 隱藏層 輸出層 d1 d2 d1763 d1764 y9 y1 y0 d128

卷積運算 (0×0)+(0×1)+(0×0)+ (0×1)+(1×1)+(1×1)+ (0×0)+(5×1)+(3×0)= 7 1 5 3 1 5 3 1 7 1 8 5 3 7 2 9 6 Filter weight

卷積運算 (0×0)+(0×1)+(0×0)+ (1×1)+(1×1)+(8×1)+ (5×0)+(3×1)+(7×0)= 13 1 8 5 1 8 5 3 7 1 7 13 1 8 5 3 7 2 9 6 Filter weight

Max-Pool運算 1 2 3 4 6 8 6 8 3 4 Max-Pool

Max-Pool運算說明 1 2 3 4 6 8 6 1 2 3 4 6 8 6 8

Max-Pool運算說明 1 2 3 4 6 8 6 8 3 1 2 3 4 6 8 6 8 3 4

CNN實驗 . 3 3 3 3 3 3 3 3 d1 d2 d1763 d1764 y9 y1 y0 d128 平坦層 隱藏層 輸出層 3 第一次convolution 第一次pooling 第二次convolution 第二次pooling Filter=16 Filter=36 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 28×28 3 3 3 3 3 3 3 3 3 3 3 3 輸入層 3 3 3 3 3 3 16×28×28 16×14×14 36×14×14 36×7×7

CNN實驗 CNN卷積神經網路 卷積層1:16層(28×28),池化層1:16層(14×14) 卷積層1:36層(14×14),池化層1:36層(7×7) 輸入層:1764個神經元,隱藏層:128個神經元,輸出層:10個神經元 Epoch=10 加入DropOut(0.25)

CNN實驗 Test data: loss accuracy=0.9902 結論:使用CNN會比用多層感知器(MLP)模型來的好

Reference TensorFlow+Keras深度學習人工智慧實務應用

The End