Skip to content

Commit 0a8d5a1

Browse files
committed
修复了(5)的图床
1 parent 9ae95a3 commit 0a8d5a1

File tree

1 file changed

+17
-14
lines changed

1 file changed

+17
-14
lines changed

周志华《Machine Learning》学习笔记(5)--决策树.md

+17-14
Original file line numberDiff line numberDiff line change
@@ -20,7 +20,7 @@
2020

2121
这个女孩的挑剔过程就是一个典型的决策树,即相当于通过年龄、长相、收入和是否公务员将男童鞋分为两个类别:见和不见。假设这个女孩对男人的要求是:30岁以下、长相中等以上并且是高收入者或中等以上收入的公务员,那么使用下图就能很好地表示女孩的决策逻辑(即一颗决策树)。
2222

23-
![这里写图片描述](http://img.blog.csdn.net/20161213093317644?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
23+
![1.png](https://i.loli.net/2018/10/17/5bc728ec84a77.png)
2424

2525
在上图的决策树中,决策过程的每一次判定都是对某一属性的“测试”,决策最终结论则对应最终的判定结果。一般一颗决策树包含:一个根节点、若干个内部节点和若干个叶子节点,易知:
2626

@@ -34,37 +34,37 @@
3434

3535
决策树的构造是一个递归的过程,有三种情形会导致递归返回:(1) 当前结点包含的样本全属于同一类别,这时直接将该节点标记为叶节点,并设为相应的类别;(2) 当前属性集为空,或是所有样本在所有属性上取值相同,无法划分,这时将该节点标记为叶节点,并将其类别设为该节点所含样本最多的类别;(3) 当前结点包含的样本集合为空,不能划分,这时也将该节点标记为叶节点,并将其类别设为父节点中所含样本最多的类别。算法的基本流程如下图所示:
3636

37-
![这里写图片描述](http://img.blog.csdn.net/20161213095420763?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
37+
![2.png](https://i.loli.net/2018/10/17/5bc728ecc27fe.png)
3838

3939
可以看出:决策树学习的关键在于如何选择划分属性,不同的划分属性得出不同的分支结构,从而影响整颗决策树的性能。属性划分的目标是让各个划分出来的子节点尽可能地“纯”,即属于同一类别。因此下面便是介绍量化纯度的具体方法,决策树最常用的算法有三种:ID3,C4.5和CART。
4040

4141
###**4.2.1 ID3算法**
4242

4343
ID3算法使用信息增益为准则来选择划分属性,“信息熵”(information entropy)是度量样本结合纯度的常用指标,假定当前样本集合D中第k类样本所占比例为pk,则样本集合D的信息熵定义为:
4444

45-
![这里写图片描述](http://img.blog.csdn.net/20161213093412096?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
45+
![3.png](https://i.loli.net/2018/10/17/5bc728ec515a5.png)
4646

4747
假定通过属性划分样本集D,产生了V个分支节点,v表示其中第v个分支节点,易知:分支节点包含的样本数越多,表示该分支节点的影响力越大。故可以计算出划分后相比原始数据集D获得的“信息增益”(information gain)。
4848

49-
![这里写图片描述](http://img.blog.csdn.net/20161213093427755?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
49+
![4.png](https://i.loli.net/2018/10/17/5bc728ec3e067.png)
5050

5151
信息增益越大,表示使用该属性划分样本集D的效果越好,因此ID3算法在递归过程中,每次选择最大信息增益的属性作为当前的划分属性。
5252

5353
###**4.2.2 C4.5算法**
5454

5555
ID3算法存在一个问题,就是偏向于取值数目较多的属性,例如:如果存在一个唯一标识,这样样本集D将会被划分为|D|个分支,每个分支只有一个样本,这样划分后的信息熵为零,十分纯净,但是对分类毫无用处。因此C4.5算法使用了“增益率”(gain ratio)来选择划分属性,来避免这个问题带来的困扰。首先使用ID3算法计算出信息增益高于平均水平的候选属性,接着C4.5计算这些候选属性的增益率,增益率定义为:
5656

57-
![这里写图片描述](http://img.blog.csdn.net/20161213093446490?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
57+
![5.png](https://i.loli.net/2018/10/17/5bc728ec69647.png)
5858

5959
###**4.2.3 CART算法**
6060

6161
CART决策树使用“基尼指数”(Gini index)来选择划分属性,基尼指数反映的是从样本集D中随机抽取两个样本,其类别标记不一致的概率,因此Gini(D)越小越好,基尼指数定义如下:
6262

63-
![这里写图片描述](http://img.blog.csdn.net/20161213093503346?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
63+
![6.png](https://i.loli.net/2018/10/17/5bc728ec5a2ff.png)
6464

6565
进而,使用属性α划分后的基尼指数为:
6666

67-
![这里写图片描述](http://img.blog.csdn.net/20161213093515159?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
67+
![7.png](https://i.loli.net/2018/10/17/5bc728ec62eaf.png)
6868

6969
##**4.3 剪枝处理**
7070

@@ -77,9 +77,11 @@ CART决策树使用“基尼指数”(Gini index)来选择划分属性,基
7777

7878
评估指的是性能度量,即决策树的泛化性能。之前提到:可以使用测试集作为学习器泛化性能的近似,因此可以将数据集划分为训练集和测试集。预剪枝表示在构造数的过程中,对一个节点考虑是否分支时,首先计算决策树不分支时在测试集上的性能,再计算分支之后的性能,若分支对性能没有提升,则选择不分支(即剪枝)。后剪枝则表示在构造好一颗完整的决策树后,从最下面的节点开始,考虑该节点分支对模型的性能是否有提升,若无则剪枝,即将该节点标记为叶子节点,类别标记为其包含样本最多的类别。
7979

80-
![不剪枝处理的决策树](http://img.blog.csdn.net/20161213093757011?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
81-
![预剪枝处理决策树](http://img.blog.csdn.net/20161213093806286?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
82-
![后剪枝处理决策树](http://img.blog.csdn.net/20161213093816120?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
80+
![8.png](https://i.loli.net/2018/10/17/5bc728ec80d34.png)
81+
82+
![9.png](https://i.loli.net/2018/10/17/5bc728ec9e330.png)
83+
84+
![10.png](https://i.loli.net/2018/10/17/5bc728ec9d497.png)
8385

8486
上图分别表示不剪枝处理的决策树、预剪枝决策树和后剪枝决策树。预剪枝处理使得决策树的很多分支被剪掉,因此大大降低了训练时间开销,同时降低了过拟合的风险,但另一方面由于剪枝同时剪掉了当前节点后续子节点的分支,因此预剪枝“贪心”的本质阻止了分支的展开,在一定程度上带来了欠拟合的风险。而后剪枝则通常保留了更多的分支,因此采用后剪枝策略的决策树性能往往优于预剪枝,但其自底向上遍历了所有节点,并计算性能,训练时间开销相比预剪枝大大提升。
8587

@@ -90,19 +92,20 @@ CART决策树使用“基尼指数”(Gini index)来选择划分属性,基
9092
* 首先将α的所有取值按升序排列,所有相邻属性的均值作为候选划分点(n-1个,n为α所有的取值数目)。
9193
* 计算每一个划分点划分集合D(即划分为两个分支)后的信息增益。
9294
* 选择最大信息增益的划分点作为最优划分点。
93-
![这里写图片描述](http://img.blog.csdn.net/20161213093919778?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
95+
![11.png](https://i.loli.net/2018/10/17/5bc72a0968fad.png)
9496

9597
现实中常会遇到不完整的样本,即某些属性值缺失。有时若简单采取剔除,则会造成大量的信息浪费,因此在属性值缺失的情况下需要解决两个问题:(1)如何选择划分属性。(2)给定划分属性,若某样本在该属性上缺失值,如何划分到具体的分支上。假定为样本集中的每一个样本都赋予一个权重,根节点中的权重初始化为1,则定义:
9698

97-
![这里写图片描述](http://img.blog.csdn.net/20161213093945397?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
99+
![12.png](https://i.loli.net/2018/10/17/5bc72a098f3be.png)
98100

99101
对于(1):通过在样本集D中选取在属性α上没有缺失值的样本子集,计算在该样本子集上的信息增益,最终的信息增益等于该样本子集划分后信息增益乘以样本子集占样本集的比重。即:
100102

101-
![这里写图片描述](http://img.blog.csdn.net/20161213093956194?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
103+
![13.png](https://i.loli.net/2018/10/17/5bc72a096ccc3.png)
102104

103105
对于(2):若该样本子集在属性α上的值缺失,则将该样本以不同的权重(即每个分支所含样本比例)划入到所有分支节点中。该样本在分支节点中的权重变为:
104106

105-
![这里写图片描述](http://img.blog.csdn.net/20161213094002819?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvdTAxMTgyNjQwNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
107+
![14.png](https://i.loli.net/2018/10/17/5bc72a093ed3c.png)
108+
106109
107110

108111

0 commit comments

Comments
 (0)