Source: IEEE Access, vol. 5, pp , October 2017

Slides:



Advertisements
Similar presentations
校園資訊安全與防火牆架設 嘉義市育人國小 黃士騰.
Advertisements

基本概論 Basic concepts.
國立嘉義大學 資訊工程研究所 指導教授:柯建全 博士 研究生:林俊志
第五章 網際網路 5-1 網際網路的歷史沿革 5-2 網際網路基本運作原理 5-3 連線媒介與連線上網 5-4 網際網路上的熱門應用
第三章 駭客入侵流程解析.
分類:基本概念、決策樹與模型評估.
大规模深度学习算法 Deep Belief Network及其应用
Classification of Web Query Intent Using Encyclopedia 基于百科知识的查询意图获取
資料採礦與商業智慧 第四章 類神經網路-Neural Net.
第2章 计算机网络的协议与体系结构 2.1 计算机网络体系结构的形成 2.2 协议与划分层次 2.3 计算机网络的原理体系结构
计算机网络.
计算机网络 暨南大学计算机科学系 学年 第一学期.
第1章 概述.
-Artificial Neural Network- Hopfield Neural Network(HNN) 朝陽科技大學 資訊管理系 李麗華 教授.
深層學習 暑期訓練 (2017).
Blind dual watermarking for color images’ authentication and copyright protection Source : IEEE Transactions on Circuits and Systems for Video Technology.
Visualizing and Understanding Neural Machine Translation
Paper Reading 2017/04/18 Yuan Xin.
An Adaptive Cross-Layer Multi-Path Routing Protocol for Urban VANET
Rate and Distortion Optimization for Reversible Data Hiding Using Multiple Histogram Shifting Source: IEEE Transactions On Cybernetics, Vol. 47, No. 2,February.
NLP Group, Dept. of CS&T, Tsinghua University
Speaker: Kai-Wei Ping Advisor: Prof Dr. Ho-Ting Wu 2014/06/23
Server Load Balancing 飛雅高科技 李村.
基於OpenWSN之無線感測網路系統的實作
CURELAN TECHNOLOGY Co., LTD Flowviewer FM-800A
第五章 網際網路 5-1 網際網路的歷史沿革 5-2 網際網路基本運作原理 5-3 連線媒介與連線上網 5-4 網際網路上的熱門應用
NetFilter IPTables.
經濟部九十年度科技專案 國家資通安全技術服務計劃 入侵偵測系統簡介
利用Netflow即時偵測蠕蟲攻擊 報告人:王明輝 報告日期:民國95年11月2日.
CS 網路安全 Network Security
1 Introduction Prof. Lin-Shan Lee.
A novel blockchain-based product ownership management system (POMS) for anti-counterfeits in the post supply chain Source: IEEE Access, Vol. 5, pp ,
CURELAN TECHNOLOGY Co., LTD Flowviewer FM-800A
InterSpeech 2013 Investigation of Recurrent-Neural-Network Architectures and Learning Methods for Spoken Language Understanding University of Rouen(France)
Advanced Artificial Intelligence
什麼是網際網路? 面臨攻擊的網路 網路邊際 總結 網路核心
Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi
Probabilistic Neural Network (PNN)
NetST®防火墙培训教程 清华得实® 保留所有权利.
Source: IEEE Transactions on Image Processing, Vol. 25, pp ,
基于移动代理的分布式 入侵检测系统 太原理工大学网络信息中心 任新华 2019/2/22.
可能受益的商业活动 客户保留 目标营销 欺诈检测 购物篮分析 客户细分 客户忠诚度 信用打分 信用风险评估 营销组合管理和评估 盈利能力分析
指導教授:黃三益 教授 學生 洪瑞麟 m 蔡育洲 m 陳怡綾 m
A high payload data hiding scheme based on modified AMBTC technique
1 Introduction Prof. Lin-Shan Lee.
Long short term memory 郭琦鹏
My favorit subject is science .
Advanced word vector representations
Maintaining Frequent Itemsets over High-Speed Data Streams
Today is Monday 高年級晨間美語.
前向人工神经网络敏感性研究 曾晓勤 河海大学计算机及信息工程学院 2003年10月.
ImageNet Classification with Deep Convolutional Neural Networks
Course 4 分類與預測 Classification and Prediction
Source: Journal of Network and Computer Applications, Vol. 125, No
Speaker: Wang,Song-Ferng Advisor: Dr. Ho-Ting Wu 2015/7/6
網路安全管理 期末報告 A 許之青 24/04/2019.
A Data Mining Algorithm for Generalized Web Prefetching
105學年度 服務學習教育說明會 Service Learning.
An Efficient MSB Prediction-based Method for High-capacity Reversible Data Hiding in Encrypted Images 基于有效MSB预测的加密图像大容量可逆数据隐藏方法。 本文目的: 做到既有较高的藏量(1bpp),
概念時代的課程與教學設計 台中教育大學 數位內容科技學系 徐照麗.
李宏毅專題 Track A, B, C 的時間、地點開學前通知
More About Auto-encoder
Speaker : YI-CHENG HUNG
Speaker : 翁瑄伶 Advisor : 柯開維 博士 Date: 2016/07/31
第十一章 基因演算法 (Genetic Algorithms)
Fast Image Dehazing Algorithm using Morphological Reconstruction
Speaker : YI-CHENG HUNG
HRNet 保持高分辨率 不同分辨率之间进行信息交换(exchange) Exchange Unit HRNet Exchange Block.
WiFi is a powerful sensing medium
Gaussian Process Ruohua Shi Meeting
Presentation transcript:

A Deep Learning Approach for Intrusion Detection using Recurrent Neural Network Source: IEEE Access, vol. 5, pp. 54-61, October 2017 Author: Chuanlong Yin, Yuefei Zhu, Jinlong Fei, Xinzheng He Speaker: KUN-YIN LEE Date : 2018/06/07

Outline Introduction Preliminaries Proposed scheme Experiment results Conclusions

Scenario Web Server Firewall Internet IDS ( Intrusion Detection System)

Introduction Classification RNN RNN Binary classification Multiclass classification Denial of service User to Root Remote to local Normal or abnormal Normal, DoS, Probe, U2R, R2L R2L: Remote to Local 這類型的攻擊就是:遠端的使用者企圖取得本地端的存取權限。 通常入侵攻擊者都是利用一些網路服務的漏洞,如:網路服務系統本身的弱點、 或是程式撰寫者的疏忽所造成的漏洞來進行不合法的行為。 U2R: user to root 這類型的攻擊就是:使用者想要取得主機的超級管理者(ROOT)的權限。而這類攻擊分成兩類: 一類是使用者透過遠端連線來取得超級使用者的權限;另一類就是本地端的使用者企圖要取得超級使用者的權限; 通常入侵攻擊者利用緩衝滿溢的技巧,就是將網路上要傳回的地址利用滿溢的技術,改成入侵者想要執行的攻擊行為,而 U2R就是利用此方式取得存取畚箕超級使用者的權限。 PROBE: 此類型的入侵行為並不算是攻擊行為,而是在為後續的攻擊型做試探的動作,其主要的目的有:蒐集受害端主的相關資訊,如: 探測主機開放的PORT有哪些。蒐集受害端主機所提供之服務、得知受害端主機所安裝之作業系統、蒐集受害端主機現階段的弱點資訊。 RNN RNN Web log Web log

Preliminaries(1/11) . Neural networks ( NN ) Recurrent neural networks ( RNN ) Forward propagation Backward propagation Training Dataset (input, label) Function Linear function, 𝑦′=𝑤𝑥+𝑏 Non-linear function, 𝑦′=∅( 𝑤𝑥 + 𝑏 ) Loss function, loss(𝑦′- 𝑦) Input X f(X) output loss(output,label) optimization 𝑦 𝑥 𝐿oss 𝑤 .

Preliminaries(2/11) - NN He cooks every day Apple pie Burger Chicken

Preliminaries(3/11) - NN Weather

Preliminaries(4/11) - NN Neural Network NN

Preliminaries(5/11) - NN Vectors 1 0 0 0 1 0 0 0 1 1 0 0 1

Preliminaries(6/11) - NN 1 0 1 0 1 0 0 1 0 0 0 1 0 0 1 0 = 0 1 0 1

Preliminaries(7/11) - RNN Cooking Schedule Monday Tuesday Wednesday Thursday Friday Saturday Apple pie Burger Chicken Apple pie Burger Chicken

Preliminaries(8/11) - RNN Recurrent Neural Network RNN

Preliminaries(9/11) - RNN Recurrent Neural Network

Preliminaries(10/11) - RNN 1 0 0 1 0 0 1 0 0 0 1 0 0 0 1 0 1 0 0 1 0 0 0 1 1 0 0 0 1 0 = 0 0 1 0 0 1

Preliminaries(11/11) - RNN Result 0 Result 1 NN NN RAM RAM Data 0 Data 1 Data 2 Data 3

Proposed scheme(1/5) Training Set Testing Set Detection Data Preprocessing Numericalization RNN-IDS model Normalization Detection Training Forward Propagation Weight Update

Proposed scheme(2/5) Dataset description NSL-KDD dataset, 2009

Proposed scheme(3/5) Data preprocessing Numericalization Normalization Protocol_type : 3 types, tcp, udp, icmp -> (1,0,0), (0,1,0), (0,0,1) Service : 70 types Flag : 11 types 41 dimensional features map into 122 dimensional features Normalization Duration [0, 58329] -> [0, 4.77] Src_bytes [0, 1.3X109] -> [0, 9.11] Dst_bytes [0, 1.3X109] -> [0, 9.11] X2 X2 X1 X1

Proposed scheme(4/5) Training model … … 𝑥1 ℎ1 𝑦1 𝑥1 ℎ2 𝑦2 𝑥1 ℎ3 𝑦3 Forward propagation Input : 𝒙𝒊( 𝒊=𝟏, 𝟐, …, 𝒎) output : 𝐲𝒊′ For i from 1 to m do   𝐭𝐢=𝑾 𝒉𝒙 𝒊 𝒙𝒊+𝑾 𝒉𝒉 𝒊−𝟏 ℎ𝑖−1   𝐔𝐢=𝒔𝒊𝒈𝒎𝒐𝒊𝒅(𝒕𝒊)   𝐒𝐢=𝑾 𝒚𝒉 𝒊 𝑼𝒊   𝐲 𝐢 ′ =𝐬𝐨𝐟𝐭𝐦𝐚𝐱(𝐒𝐢) Input layer hidden layer Output layer 𝑊 ℎ𝑥 1 𝑊 𝑦ℎ 1 𝑥1 ℎ1 𝑦1 𝑊 ℎℎ 1 𝑊 ℎ𝑥 2 𝑊 𝑦ℎ 2 𝑥1 ℎ2 𝑦2 Backward propagation Calculate the cross entropy between the output value and label value: 𝐋𝐎𝐒𝐒( 𝐲𝐢, 𝐲 𝐢 ′ ) Then, Weight update 𝑊 ℎℎ 2 𝑥1 𝑊 ℎ𝑥 3 ℎ3 𝑊 ℎ𝑥 3 𝑦3 … …

Proposed scheme(5/5) Evaluation 𝐴𝐶= 𝑇𝑃+𝑇𝑁 𝑇𝑃+𝑇𝑁+𝐹𝑃+𝐹𝑁 𝑇𝑃𝑅= 𝑇𝑃 𝑇𝑃+𝐹𝑁 𝑇𝑃𝑅= 𝑇𝑃 𝑇𝑃+𝐹𝑁 𝐹𝑃𝑅= 𝐹𝑃 𝐹𝑃+𝑇𝑁 Predicted Actual Abnormal Normal TP FN FP TN

Experiment Results(1/5) Binary classification Epoch : 100 Hidden nodes : 20, 60, 80, 120, 240 Learning rate : 0.01, 0.1, 0.5 (s) Predicted Actual Abnormal Normal 9362 3471 298 9413

Experiment results(2/5) Multiclass classification Epoch : 100 Hidden nodes : 60, 80, 120, 160 Learning rate : 0.1, 0.5, 0.8 (s)

Experiment results(3/5)

Experiment results(4/5) Multiclass classification FPR(%) TPR(%)

Experiment results(5/5) Binary classification Multiclass classification

Conclusions High accuracy in binary and multiclass classification High detection rate with low false positive rate LSTM ( long short-term memory )

https://github.com/p0561199/Neural-learning

Thanks

Activation function - Sigmoid

Softmax 歸一化函數 [1, 2, 3, 4, 1, 2, 3] [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]

Learning rate . . 𝐿oss 𝐿oss 𝑤 𝑤 Large learning rate Small learning rate