期末報告-- [ridge regression] 姓名:秦暐峻
Outline Algorithm Introduction Code Review Model Preview Live Demo(Using InAnalysis) Conclusion Reference
Algorithm Introduction Regression – 迴歸 迴歸分析是建立因變數Y與自變數X之間關係的模型 (維基百科) 來源:https://zh.wikipedia.org/wiki/%E8%BF%B4%E6%AD%B8%E5%88%86%E6%9E%90
Algorithm Introduction Regression – 迴歸 迴歸分析是建立因變數Y與自變數X之間關係的模型 (維基百科) 找到一個可以預測結果的函數(Function) 來源:https://zh.wikipedia.org/wiki/%E8%BF%B4%E6%AD%B8%E5%88%86%E6%9E%90
Algorithm Introduction Regression – 迴歸 迴歸分析是建立因變數Y與自變數X之間關係的模型 (維基百科) 找到一個可以預測結果的函數(Function) 𝑓 = 性別(男/女) 來源:https://zh.wikipedia.org/wiki/%E8%BF%B4%E6%AD%B8%E5%88%86%E6%9E%90
Algorithm Introduction Regression – 迴歸 迴歸分析是建立因變數Y與自變數X之間關係的模型 (維基百科) 找到一個可以預測結果的函數(Function) 𝑓 = 購買意願 來源:https://zh.wikipedia.org/wiki/%E8%BF%B4%E6%AD%B8%E5%88%86%E6%9E%90
Algorithm Introduction Linear Regression – 線性迴歸 當因變數Y為continuous的資料 找到一個可以預測結果的函數(Function) 來源: http://www.csie.ntnu.edu.tw/~u91029/Regression.html
Algorithm Introduction Linear Regression – 線性迴歸 當因變數Y為continuous的資料 找到一個可以預測結果的函數(Function) 𝑓 = 明日股價 來源: http://www.csie.ntnu.edu.tw/~u91029/Regression.html
Algorithm Introduction Linear Regression – 線性迴歸 當因變數Y為continuous的資料 找到一個可以預測結果的函數(Function) 預測值 係數 特徵 𝑦=𝑏+ 𝑤 𝑖 𝑥 𝑖 𝑓 = 明日股價 來源: http://www.csie.ntnu.edu.tw/~u91029/Regression.html
Algorithm Introduction Linear Regression – 線性迴歸 建立 Loss function 來源: http://blog.csdn.net/aiirrrryee/article/details/69561239
Algorithm Introduction Linear Regression – 線性迴歸 建立 Loss function 來源: http://blog.csdn.net/aiirrrryee/article/details/69561239
Algorithm Introduction Overfitting Problem Underfitting Overfitting 雖然在Traing data取得最低的Loss,但無法對Testing data進行良好預測 來源: http://murphymind.blogspot.tw/2017/05/machine.learning.regularization.html
Algorithm Introduction Overfitting Problem – Regularization (正規化) 藉由正規化降低係數,讓函數較平滑,避免Overfitting 來源: http://murphymind.blogspot.tw/2017/05/machine.learning.regularization.html
Algorithm Introduction Ridge Regression – 利用L2范數來做正規化 來源: http://blog.csdn.net/aiirrrryee/article/details/69561239
Algorithm Introduction Ridge Regression – 利用L2范數來做正規化 L2-norm λ 太大 -> underfitting λ 太小 -> overfitting Lamda 來源: http://blog.csdn.net/aiirrrryee/article/details/69561239
Algorithm Introduction Ridge Regression – 利用L2范數來做正規化 L2-norm Lamda L2:所有元素的平方和開根號 對於權重進行約束,使w趨近於0但不等於0 (每個特徵都有權重,無法對特徵選擇) 來源: http://blog.csdn.net/aiirrrryee/article/details/69561239
Algorithm Introduction Ridge Regression – 利用L2范數來做正規化 L2-norm Lamda L2:所有元素的平方和開根號 對於權重進行約束,使w趨近於0但不等於0 (每個特徵都有權重,無法對特徵選擇) -> L1 Lasso Regression 來源: http://blog.csdn.net/aiirrrryee/article/details/69561239
Code Review 在各演算法子類別中實作 繼承 algo_component 中的 ParamsDefinitionSet 類別
Code Review Scikit linear_model中的Ridge
Code Review 在utils建立演算法物件
Code Review 建立Unittest進行測試
**Bonus: Model Preview 用sklearn中的diabetes資料
Live demo
Conclusion 總結 對於機器學習過程更加熟悉(系統流程明確) 了解不同類型的預測問題 實作演算法的架構
Reference 參考 維基百科-迴歸分析 https://zh.wikipedia.org/wiki/%E8%BF%B4%E6%AD%B8%E5%88%86%E6%9E%90 Regression演算法 http://www.csie.ntnu.edu.tw/~u91029/Regression.html Ridge & LASSO & Elastic Net http://blog.csdn.net/aiirrrryee/article/details/69561239 機器學習:正規化 http://murphymind.blogspot.tw/2017/05/machine.learning.regularization.html