基于类间最大间隔多级决策树 报告人:霍建兵.

Slides:



Advertisements
Similar presentations
1. 甚麼是人工智能 ? 甚麼是人工智能 ? 2. 強人工智能 - 弱人工智能 強人工智能 - 弱人工智能 3. 實現人工智能的必要條件 實現人工智能的必要條件 4. 人工智能的例子 人工智能的例子 5. 虛擬真實 虛擬真實 6. 感想 感想.
Advertisements

2.5 函数的微分 一、问题的提出 二、微分的定义 三、可微的条件 四、微分的几何意义 五、微分的求法 六、小结.
MOOCs 与计算机课程建设 高等教育出版社 张龙 2013 年 12 月 15 日 海南 · 海口.
科技部專題研究計畫撰寫與分析 國際及兩岸事務暨研究發展處 時 間:2015年11月4日 報 告 人:曾俊堯 博士
Some theoretical notes on boosting
第一章 会计信息系统 第一节 计算机会计概述.
论文检索、投稿和搜集 经验交流 清华大学信息网络工程研究中心 王之梁
Some Knowledge of Machine Learning(1)
王晨 指导教师:张军平副教授 复旦大学计算机科学技术学院 上海市智能信息处理重点实验室
北魏孝文帝的漢化措施 第二節.
(Problem-Based learning 教学法)
資料探勘(Data Mining)及其應用之介紹
邹 权 (博士、副教授) 厦门大学数据挖掘实验室
一、现状与问题 整体竞争能力不强 服务品质不高 市场秩序失范 管理效率低下 旅游旺季人满为患 资源和环境保护不力 欺客宰客的现象时有发生
第二节 微积分基本公式 1、问题的提出 2、积分上限函数及其导数 3、牛顿—莱布尼茨公式 4、小结.
魏普文 山东大学密码技术与信息安全 教育部重点实验室
決策分析研究室 巫沛倉 劉浩天 胡承方 義守大學工業工程與管理學系.
统计学习基础 卿来云 中国科学院研究生院信息学院 / 统计对研究的意义:
libD3C: 一种免参数的、支持不平衡分类的二类分类器
分享一篇佳作:Cognitive Control
資訊管理 第九章 資料採礦.
文本分类综述 王 斌 中国科学院计算技术研究所 2002年12月.
Manifold Learning Kai Yang
支持向量机 Support Vector Machines
植生工程植材選用決策支援系統 指導:錢滄海 授課:林俐玲 學生:楊孟叡.
Department of Computer Science & Information Engineering
Source: IEEE Access, vol. 5, pp , October 2017
On Some Fuzzy Optimization Problems
研究、論文、計畫與生活之平衡 演講人:謝君偉 元智大學電機系 2018年11月22日.
第 9 章 基本的資料探勘、線上分析處理、資訊呈現.
Pattern Recognition Chapter1 Introduction.
第十二章 資料探勘、商業智慧、知識管理 第三篇 企業對消費者B2C篇.
基于自适应同步的网络结构识别 陆君安 School of Mathematics and Statistics, Wuhan University (复杂网络论坛,北京,April.27-29th,2011)
Cyclic Hanoi问题 李凯旭.
Introduction to AI and ML
Online job scheduling in Distributed Machine Learning Clusters
What have we learned?.
VISP+MS 国际高校访问学生 及统计理学硕士项目
Source: IEEE Transactions on Image Processing, Vol. 25, pp ,
动态规划(Dynamic Programming)
一般論文的格式 註:這裡指的是一般 journal papers 和 conference papers 的格式。
A Study on the Next Generation Automatic Speech Recognition -- Phase 2
基于类关联规则的分类 Classification Based on Class-Association Rules
近期科研汇报 报告人: 纪爱兵.
用event class 从input的root文件中,由DmpDataBuffer::ReadObject读取数据的问题
The First Course in Speech Lab
模糊系统与模糊控制简介 --博士生论坛系列报告.
先生们,大家好! 尊敬的各位先生,下午好! 西安交通大学理学院 科学计算系 褚蕾蕾
学术论文:如何写?往哪投? 范崇澄 2000年11月.
谈模式识别方法在林业管理问题中的应用 报告人:管理工程系 马宁 报告地点:学研B107
第4章 非线性规划 4.5 约束最优化方法 2019/4/6 山东大学 软件学院.
模式识别与智能系统研究中心介绍 2017年8月.
表情识别研究 Sources of facial expressions
模型分类问题 Presented by 刘婷婷 苏琬琳.
WPT MRC. WPT MRC 由题目引出的几个问题 1.做MRC-WPT的多了,与其他文章的区别是什么? 2.Charging Control的手段是什么? 3.Power Reigon是什么东西?
主講人:陳鴻文 副教授 銘傳大學資訊傳播工程系所 日期:3/13/2010
Aspect Oriented Programming
实体描述呈现方法的研究 实验评估 2019/5/1.
系统科学与复杂网络初探 刘建国 上海理工大学管理学院
第四章 Petri网的结构性质.
数据集的抽取式摘要 程龚, 徐丹云.
基于最大margin的决策树归纳 李 宁.
(二)盲信号分离.
An Quick Introduction to R and its Application for Bioinformatics
基于列存储的RDF数据管理 朱敏
数据挖掘导论 福建医科大学 郑伟成.
第十七讲 密码执行(1).
§2 自由代数 定义19.7:设X是集合,G是一个T-代数,为X到G的函数,若对每个T-代数A和X到A的函数,都存在唯一的G到A的同态映射,使得=,则称G(更严格的说是(G,))是生成集X上的自由T-代数。X中的元素称为生成元。 A变, 变 变, 也变 对给定的 和A,是唯一的.
Gaussian Process Ruohua Shi Meeting
Presentation transcript:

基于类间最大间隔多级决策树 报告人:霍建兵

报告内容 基于Large-margin多级决策树的主要思想 进一步的工作

问题的提出 决策树归纳学习以Quinlan1986年提出的ID3算法为代表,由于该方法简单、容易实现而且适用于规模较大的学习问题,现在已经成为归纳学习的一个重要分支。但ID3算法在处理多类问题时效果不太好,所以[1]提出了一种多级决策树的归纳算法思想,其思想是:每一步将多类问题转化成两类问题,分步处理。

多级决策树的主要思想 多级决策树的归纳过程: 首先把多类问题转化为正、反的两类问题,然后生成第一级的决策树; 根据上一步的转化,将数据集划分为正、反两个数据子集; 递归的处理两个子集; 多级决策树的生成过程是一个递归的过程,如果所有的子集都包含一个类别停止。

基于类间间隔的多级决策树 多级决策树归纳过程中,将多类问题转化为两类问题是其中的关键步骤。由于每一个类别都可以划分为正类或者负类,对于一个m类数据集,共有2m-1种划分的方法。并且每一种划分的归纳能力一般是不同的。 因为Margin越大,归纳能力越强[3],所以我们将Large Margin理论应用到多级决策树中。在每一级遍历所有可能划分方法,选取Margin最大的作为该级决策树的划分方法。 通过Large Margin确定了一种划分,原来的数据集就转化成了一个两类的问题,针对这个两类问题,我们再用传统的决策树方法进行归纳学习,产生第一级决策树。然后递归的产生多级决策树。

进一步的工作 多级决策树的理论基础 和其它的一些算法进行对比研究

理论基础 对于遵守经验风险最小化(ERM)的学习算法,假设空间(用来搜索目标函数的函数空间)越大,越难搜索到目标函数12。从直观上感觉当事例集一定的情况下,类别越多,则假设空间越大,这种方法需要做进一步研究。 据VC维或者算法(Stability)的稳定性16来推导出算法的归纳能力,该方法较难。

和其它算法的对比研究 比较其它多类划分两类启发式算法的效果, 比如: 和其它多类分类器的比较: 1.熵的方法 2.相关性矩阵 Multi-classes classifiers base on SVM

1.熵的方法 遍历所有的划分方法,比较第一个候选属性的信息增益,选取增益最大的作为当前多类问题的确定的划分。 2.相关性矩阵 优缺点:其前两种算法思路简单,计算量小,但 缺点是单一属性决定了属性的划分,没有综合 考虑数据的特点。 3.Multi-classes classifier base on SVM 1-VS-N 1-VS-1 DAGs

谢谢大家!

参考文献 Hongwei Yang,etl. A Decision Tree based on Hierarchy decomposition Quinlan J R. Induction of decision tree, Machine Learning,1986, 1(1): 81-106 V. N. Vapnik, Statistical learning theory, New York, Wiley, 1998, ISBN: 0-471-03003-1 V. N. Vapnik, The Nature of Statistical Learning Theory, Springer-Verlag, New York, 2000, ISBN: 0-387-98780-0 Xizhao Wang, Qiang He, Degang Chen, Daniel Yeung, A genetic algorithm for solving the inverse problem of support vector machines, Science Direct, 2005, 68: 225-238 V. N. Vapnik, An Overview of Statistical Learning Theory, IEEE Transactions on Neural Networks, Vol. 10, No.5, Pages 88 - 999, 1999. Weida Zhou, Li Zhang, Licheng Jiao, Linear programming support vector machines, Pattern Recognition, 2002, 35: 2927-2936. Xizhao Wang, Qiang He, Enhancing Generalization Capability of SVM-Classifiers with Feature Weight Adjustment, Lecture Notes in Computer Science, vol. 3213, pp.1037-1043, 2004, September Tom M. Mitchell. Machine Learning, Beijing: China Machine Press,2003.3 Tomaso Poggio, General conditions for predictivity in learning theory, nature vol 428 419-422 2004.3

Chih-Wei Hsu, Chih-Jen Lin A Comparison of Methods for Multiclass Support Vector Machines, IEEE Transactions on Neural Network, VoL.13, No.2, March 2002, 415-425 J.C.Platt, N. Cristianini, and J.Shawe-Taylor, Large margin DAG’s for multiclass classification, in Advances in Neural Information Processing System. Cambridge, MA: MIT Press, 2000, vol. 12, pp.547-553 E. Mayoraz and E. Alpaydin, “Support vector machines for multi-class classification,” in IWANN, vol. 2, 1999, pp. 833–842. J. Weston and C. Watkins, “Multi-class support vector machines,” presented at the Proc. ESANN99, M. Verleysen, Ed., Brussels, Belgium, 1999. Bousquet, O. & Elisseeff, A. Stability and generalization. J Machine Learn. Res. 2, 499–526 (2001).

Appendix VC维被认为是数学和计算机科学中非常重要的定量化概念,它可用来刻画分类系统的性能.  VC维的直观定义是:对一个指示函数集,如果存在h个样本能够被函数集中的函数按所有可能的2h种形式分开,则称函数集能够把h个样本打散,函数集的VC维就是它能打散的最大样本数目h,若对任意数目的样本都有函数能将它们打散.则函数集的VC维是无穷大。VC维反映了函数集的学习能力,VC维越大则学习机器越复杂,所以VC维又是学习机器复杂程度的一种衡量。

Stability是用来表示某一种算法归纳能力的一系列标准,当算法符合某一种标准时它都有一个从经验风险(训练精度)计算归纳能力的公式 Hypothesis Stability Cross-validation leave-one out (CVloo) Stability CVEEEloo stability

决策森林是多个决策树分类器的融合器,其中的每个决策树分类器地位是平等的,对于每单个决策树,训练集的抽取一般采用bootstrap抽样,测试是采用Max win voting

Multi-classes classifier base on SVM 1-VS-N 1-VS-1 DAGs