# 决策树

## 决策树

* [返回顶层目录](https://luweikxy.gitbook.io/machine-learning-notes/summary)
* [决策树直观介绍](#决策树直观介绍)
* [决策树模型与学习](#决策树模型与学习)
  * [决策树模型](#决策树模型)
  * [决策树与if-then规则](#决策树与if-then规则)
  * [决策树与条件概率分布](#决策树与条件概率分布)
  * [决策树学习算法](#决策树学习算法)
* [特征选择](#特征选择)
  * [特征选择问题](#特征选择问题)
  * [信息增益](#信息增益)
  * [信息增益率](#信息增益率)
  * [基尼指数](#基尼指数)
* [决策树的生成](#决策树的生成)
  * [ID3算法](#ID3算法)
  * [C4.5算法](#C4.5算法)
  * [CART算法](#CART算法)
    * [回归树的生成](#回归树的生成)
    * [分类树的生成](#分类树的生成)
  * [CHAID算法](#CHAID算法)
* [决策树的剪枝](#决策树的剪枝)
  * [预剪枝](#预剪枝)
  * [后剪枝](#后剪枝)
    * [后剪枝过程描述](#后剪枝过程描述)
    * [后剪枝算法](#后剪枝算法)
    * [CART剪枝](#CART剪枝)
* [连续与缺失值](#连续与缺失值)
  * [连续值处理](#连续值处理)
  * [缺失值处理](#缺失值处理)
* [多变量决策树](#多变量决策树)
* [决策树的优缺点](#决策树的优缺点)

这里讨论一种被广泛使用（并且建议优先使用）的分类算法——决策树（decision tree）。相比贝叶斯算法，决策树的优势在于构造过程不需要任何领域知识或参数设置，因此在实际应用中，对于探测式的知识发现，决策树更加适用。

当一条记录有若干不同的方式划分为目标类的一部分时，适合用单条线来发现类别之间边界的统计学方法是无力的。而决策树能够成功地达到这一目标。

决策树可以认为是if-then规则的集合，也可以认为是点贵在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性，分类速度快。

决策树的学习与预测过程：学习时，利用训练数据，根据损失函数最小化的原则建立决策树模型；预测时，对新的数据，利用决策树模型进行分类。

决策树学习通常包括3个步骤：特征选择、决策树的生成、决策树的修剪。

这些决策树学习的思想主要来源于由Quinlan在1986年提出的ID3算法和1993年提出的C4.5算法，以及由Breiman等人在1984年提出的CART算法。

本章先介绍决策树的基本概念，在通过ID3、C4.5和CART介绍特征的选择。决策树的生成以及决策树的修剪。最后介绍连续与缺失值的处理和多变量决策树。

## 决策树直观介绍

通俗来说，决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这个女孩介绍男朋友，于是有了下面的对话：

> **女儿**：多大年纪了？
>
> 母亲：26。
>
> **女儿**：长的帅不帅？
>
> 母亲：挺帅的。
>
> **女儿**：收入高不？
>
> 母亲：不算很高，中等情况。
>
> **女儿**：是公务员不？
>
> 母亲：是，在税务局上班呢。
>
> **女儿**：那好，我去见见。

这个女孩的决策过程就是典型的分类树决策。相当于通过年龄、长相、收入和是否公务员对将男人分为两个类别：见和不见。假设这个女孩对男人的要求是：30岁以下、长相中等以上并且是高收入者或中等以上收入的公务员，那么这个可以用下图表示女孩的决策逻辑：

![girl-select-boy](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65dwy2Gw51128yXk%2Fgirl-select-boy.png?generation=1569158108009169\&alt=media)

上图完整表达了这个女孩决定是否见一个约会对象的策略，其中绿色节点表示判断条件，橙色节点表示决策结果，箭头表示在一个判断条件在不同情况下的决策路径，图中红色箭头表示了上面例子中女孩的决策过程。

这幅图基本可以算是一颗决策树，说它“基本可以算”是因为图中的判定条件没有量化，如收入高中低等等，还不能算是严格意义上的决策树，如果将所有条件量化，则就变成真正的决策树了。

有了上面直观的认识，我们可以正式定义决策树了：

**决策树（decision tree）是一个树结构（可以是二叉树或非二叉树）。其每个非叶节点表示一个特征属性上的测试，每个分支代表这个特征属性在某个值域上的输出，而每个叶节点存放一个类别。使用决策树进行决策的过程就是从根节点开始，测试待分类项中相应的特征属性，并按照其值选择输出分支，直到到达叶子节点，将叶子节点存放的类别作为决策结果。**

可以看到，决策树的决策过程非常直观，容易被人理解。目前决策树已经成功运用于医学、制造产业、天文学、分支生物学以及商业等诸多领域。知道了决策树的定义以及其应用方法，下面介绍决策树的构造算法。

## 决策树模型与学习

### 决策树模型

**决策树定义：**

分类决策树是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型：内部结点和叶节点，内部结点表示一个特征或属性，叶节点表示一个类。

用决策树分类，从根节点开始，对实例的某一特征进行测试，根据测试结果，将实例分配到其子结点；这时，每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分配，直至达到叶节点。最后将实例分配到叶结点的类中。

下图是一个决策树的示意图。图中圆和方框分别表示内部结点和叶结点。

![decision-tree-model](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65dyBJzwDxEmWKmW%2Fdecision-tree-model.png?generation=1569158107855972\&alt=media)

### 决策树与if-then规则

可以将决策树看成一个if-then规则的集合，将决策树转换成if-then规则的过程是这样的：**由决策树的根结点到叶结点的每一条路径构建一条规则**。

路径上的内部结点的规则对应着规则的条件，而叶结点的类对应着规则的结论。决策树的路径或其对应的if-then规则集合具有一个重要的性质：**互斥并且完备**。这就是说，每一条实例都被一条路径或者一条规则所覆盖，而且只被一条路或一条规则所覆盖。

### 决策树与条件概率分布

决策树还表示给定特征下类的条件概率分布。这一条件概率分布定义在特征空间的一个划分上。

将特征空间划分为互不相交的单元或者区域，并在每个单元定义一个类的概率分布，就构成了一个条件概率分布，所以决策树是判别模型而不是生成模型。

决策树的一条路径对应于划分中的一个单元。决策树所表示的条件概率分布由各个单元给定下类的条件概率分布组成。假设X为表示特征的随机变量，Y为表示类的随机变量，那么这个条件概率分布可以表示为P(Y|X)。X取值于给定划分单元的集合，Y取值于类的集合。

**各叶结点（单元）上的条件概率往往偏向于某一个类**，即属于某一类的条概率较大。决策树分类时将该结点的实例强行分到条件概率大的那一类中。

![decision-tree-conditional-probability](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65e-2bGu-jmcsanO%2Fdecision-tree-conditional-probability.png?generation=1569158107907252\&alt=media)

上图（a）示意地表示了特征空间的一个划分。图中的大正方形表示特征空间。这个大正方形被若干个小矩形分割，每个小矩形表示一个单元。特征空间划分上的单元构成了一个集合，X取值为单元的集合。为简单起见，假设只有两类：正类和负类，即Y取值为+1和-1。小矩形中的数字表示单元的类，上图（b）示意地表示特征空间划分确定时，特征（单元）给定条件下类的条件概率分布。上图（b）中条件概率分布对应于上图（a）的划分。当某个单元c的条件概率满足$$P(Y=+1|X=c)>0.5$$时，则认为这个单元属于正类，即落在这个单元的实例都被视为正例。上图（c）为对应于上图（b）中条件概率分布的决策树。

### 决策树学习算法

决策树学习，假设给定训练数据集

$$
D={(x\_1,y\_1),(x\_2,y\_2),...,(x\_N,y\_N)}
$$

其中，$$x\_i=(x\_i^{(1)},x\_i^{(2)},...,x\_i^{(n)})^T$$为输入实例（特征向量），n为特征个数，$$y\_i\in{1,2,...,K}$$为类标记，$$i=1,2,...,N$$，N为样本容量。学习的目标是根据给定的训练数据集，构建一个决策树模型，使它能够对实例进行正确的分类。

**决策树本质上是从训练数据集中归纳出一组分类规则**。从另一个角度看，决策树学习是由训练数据集估计条件概率模型，所以决策树是判别式模型。

决策树学习的**损失函数通常是正则化的极大似然函数**。决策树学习的策略是以损失函数为目标函数的最小化，正则化是为了产生一颗泛化能力强，即处理未见示例能力强的决策树，其基本的流程遵循简单且直观的“分而治之”策略。

但是，从所有可能的决策树中选择最优决策树是NP完全问题，通常采用启发式方法，近似求解这一最优化问题，这样得到的决策树是次最优的。

决策树学习的算法是一个递归地选择最优特征，并根据该特征对训练数据进行分割，使得对各个子数据集有一个最好的分类的过程，这本质上其实是贪心策略。这一过程对应着特征空间的划分，也对应着决策树的构建。

决策树基本的学习算法如下所示：

![decision-tree-algorithm](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65e3cpN3IXEAeCRc%2Fdecision-tree-algorithm.png?generation=1569158108258002\&alt=media)

显然，决策树的生成是一个递归过程。在决策树的基本算法中，有三种情况会导致递归返回：

（1）当前结点包含的样本全属于同一类别，无需划分；

（2）当前属性集为空，或是所有样本在所有属性上取值相同，无法划分；

（3）当前结点包含的样本集为空，不能划分。

在第（2）种情况下，我们把当前结点标记为叶结点，但把其类别设定为该结点所含样本最多的类别；

在第（3）种情况下。同样把当前结点标记为叶结点，但将其类别设定为其父结点所含样本最多的类别。

注意，这两种情形的处理实质不同：情形（2）是利用当前结点的后验分布，而情形（3）是把父结点的样本分布作为当前结点的先验分布。

## 特征选择

### 特征选择问题

从上面的决策树学习算法可以看出，决策树学习的关键是第8行，即如何选择最优化分属性，随着划分过程不断进行，我们希望决策树的分支结点所包含的样本尽可能属于同一类别，即结点的“纯度”越来越高，这样可以提高决策树学习的效率。

### 信息增益

特征A对训练数据集D的信息增益g(D, A)，定义为集合D的经验熵H(D)与特征A给定条件下D的条件经验熵H(D|A)之差，即

$$
g(D,A)=H(D)-H(D|A)
$$

熵H(Y)与条件熵H(Y|X)之差称为互信息。决策树学习中的信息增益等价于训练数据集中类与特征的互信息。

**信息增益表示得知特征X的信息而使类Y的信息的不确定性减少的程度**。一般而言，信息增益越大，意味着使用属性a来进行划分所获得的“纯度提升”越大，因此，我们可用信息增益来进行决策树的划分属性的选择。选择信息增益最大的属性，即在上图的决策树学习算法的第8行选择属性$$a^\*$$

$$
a\_\*=\text{arg }\mathop{\text{max}}\_{a\in A}\ \text{Gain}(D,a)
$$

著名的ID3算法就是以信息增益为准则来选择划分属性。

下面介绍计算信息增益的具体算法：

根据信息增益准则的特征选择方法是：训练数据集（或子集）D，计算其每个特征的信息增益，并比较它们的大小，选择信息增益最大的特征。

设训练数据集为D，|D|表示其样本容量，即样本个数。设有K个类$$C\_k$$，$$k=1, 2, ... ,K$$，$$|C\_k|$$为属于类$$C\_k$$的样本个数，$$\sum\_{k=1}^K|C\_k|=|D|$$。

设特征A有n个不同的取值$${a\_1, a\_2, ... , a\_n}$$，根据特征A的取值将D划分为n个子集$$D\_1, D\_2, ... , D\_n$$，$$|D\_i|$$为$$D\_i$$的样本个数，$$\sum\_{i=1}^n|D\_i|=|D|$$。

记子集$$D\_i$$中属于类$$C\_k$$的样本的集合为$$D\_{ik}$$，即$$D\_{ik}=D\_i\cap C\_k$$，$$|D\_{ik}|$$为$$D\_{ik}$$的样本个数，于是信息增益的算法如下：

**信息增益的算法：**

输入：训练数据集D和特征A；

输出：特征A对训练集D的信息增益g(D,A)。

（1）计算数据集D的经验熵H(D)

$$
H(D)=-\sum\_{k=1}^K\frac{|C\_k|}{|D|}\text{log}\_2\frac{|C\_k|}{|D|}
$$

（2）计算特征A对数据集D的经验条件熵H(D|A)

$$
H(D|A)=\sum\_{i=1}^n\frac{|D\_i|}{|D|}H(D\_i)=-\sum\_{i=1}^n\frac{|D\_i|}{|D|}\sum\_{k=1}^K\frac{|D\_{ik}|}{|D\_i|}log\_2\frac{|D\_{ik}|}{|D\_i|}
$$

（3）计算信息增益

$$
g(D,A)=H(D)-H(D|A)
$$

### 信息增益率

以信息增益率作为划分训练数据集的特征，存在偏向于选择取值较多的特征的问题。使用信息增益率，可以对这一问题进行校正。这也是特征选择的另一准则。

**信息增益率的定义**

特征A对训练数据D的信息增益率

$$
g\_R(D,A)
$$

定义为其信息增益g(D,A)与其训练数据集D关于特征A的值的熵$$H\_A(D)$$之比，即

$$
g\_R(D,A)=\frac{g(D,A)}{H\_A(D)}
$$

其中，$$H\_A(D)=-\sum\_{i=1}^n\frac{|D\_i|}{|D|}\text{log}\_2\frac{|D\_i|}{|D|}$$，n是特征A取值的个数。

上式表明，一个特征的取值越多，则其本身的熵越大。

C4.5算法使用信息增益率。

### 基尼指数

CART决策树使用“基尼指数”（Gini index）来选择划分属性。数据集D的纯度可以用基尼指数来度量：

分类问题中，假设有K个类，样本点属于第k类的概率为$$p\_k$$，则概率分布的基尼指数定义为

$$
\begin{aligned}
\text{Gini}(D)&=\sum\_{k=1}^{K}\sum\_{k'\neq k}p\_kp\_{k'}\\
&=\sum\_{k=1}^{K}p\_k(1-p\_k)\\
&=1-\sum\_{k=1}^{K}p\_k^2
\end{aligned}
$$

直观的来说，Gini(D)反映了**从数据集D中随机抽取两个样本，其类别标记不一致的概率**。因此，Gini(D)越小，则数据集D的纯度越高。

对于给定的样本集合D，其基尼指数为

$$
\text{Gini}(D)=1-\sum\_{k=1}^K\left(\frac{|C\_k|}{|D|}\right)^2
$$

这里，Ck是D中属于第k类的样本子集，K是类的个数。

如果样本集合D根据特征A是否取某一可能值a被分割成$$D\_1$$和$$D\_2$$两部分，则在特征A的条件下，集合D的基尼指数定义为

$$
\text{Gini}(D,A)=\frac{|D\_1|}{|D|}\text{Gini}(D\_1)+\frac{|D\_2|}{|D|}\text{Gini}(D\_2)
$$

基尼指数Gini(D)表示集合D的不确定性，基尼指数Gini(D,A)表示经A=a分割后，集合的不确定性。尼基指数越大，样本的集合不确定性越大，这一点与熵类似。

下图是二分类问题中基尼指数Gini(p)、熵之半（0.5H(p)）和分类误差率之间的关系。横坐标表示概率p，纵坐标表示损失，可以看出，基尼指数和熵之半的曲线很接近，都可以近似地代表分类误差率。

![difference-between-gini-index-and-entropy](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65e7n25SACN9nsug%2Fdifference-between-gini-index-and-entropy.jpg?generation=1569158107936227\&alt=media)

## 决策树的生成

### ID3算法

ID3算法的核心是在决策树各个结点上应用**信息增益**准则选择特征，递归地构建决策树。

具体方法是：从根结点开始，对结点计算所有可能的特征的信息增益，选择信息增益最大的特征作为结点的特征，由该特征的不同取值建立子结；再对子结点递归地调用以上方法，构建决策树；直到所有特征的信息增益均很小或者没有特征可以选择为止。最后得到一颗决策树。

ID3相当于用极大似然法进行概率模型的选择。

**ID3算法：**

输入：训练数据集D，特征集A，阈值ε；

输出：决策树T。

（1）若D中所有实例属于同一类$$C\_k$$，则T为单结点树，并将类$$C\_k$$作为该结点的类标记，返回T；

（2）若A=Ø，则T为单结点树，并将D中实例数最大的类$$C\_k$$作为该结点的类标记，返回T；

（3）否则，计算A中每个特征对D的信息增益，选择信息增益最大的特征$$A\_g$$；

（4）如果特征$$A\_g$$的信息增益小于阈值ε，则置T为单结点树，并将D中实例数最大的类$$C\_k$$作为该结点的类标记，返回T；

（5）否则，对$$A\_g$$的每一可能值$$a\_i$$，依$$A\_g=a\_i$$将D分割为若干非空子集$$D\_i$$，将$$D\_i$$中实例数最大的类作为标记，构建子结点，由结点及其子结点构成树T，返回T；

（6）对第i个子结点，以$$D\_i$$为训练集，**以**$$A - A\_g$$**为特征集**，递归地调用步（1）到步（5），得到子树$$T\_i$$，返回$$T\_i$$

ID3算法只有树的生成，所以该算法生成的树容易产生过拟合。

### C4.5算法

C4.5算法与ID3算法相似，C4.5算法那对ID3算法进行了改进。C4.5在生成过程中，使用信息增益率来选择特征。

### CART算法

分类与回归树（**classification and regression tree**， CART）模型由Breiman等人在1984年提出，即可用于分类，也可用于回归。一下将分类与回归的树统称为决策树。

CART假设决策树是**二叉树**，内部结点特征的取值是”是“和”否“，左分支是取值为”是“的分支，右分支是取值为”否“的分支，这样的决策树等价于递归地二分每个特征，将特征空间划分为有限个单元，预测条件概率分布。

CART算法由以下两步组成：

（1）决策树生成：基于训练数据集生成决策树，生成的决策树要尽量大；

（2）决策树剪枝：用验证数据集对已生成的树进行剪枝并选择最优子树，这时用损失函数最小作为剪枝的标准。

**CART生成：**

决策树的生成就是递归地构建二叉决策树的过程。对**回归树用平方误差最小化**准则，对**分类树用基尼指数最小化**准则，进行特征选择，生成二叉树。

#### 回归树的生成

**最小二乘回归树生成算法：**

输入：训练数据集D；

输出：回归树f(x)。

在训练数据集所在的输入空间中，递归地将每个区域划分为两个子区域并决定每个子区域上的输出值，构建二叉决策树：

（1）选择最优切分变量j与切分点s，求解

$$
\mathop{\text{min}}*{j,s}\left\[ \mathop{\text{min}}*{c\_1}\sum\_{x\_i\in R\_1(j,s)}(y\_i-c\_1)^2 + \mathop{\text{min}}*{c\_2}\sum*{x\_i\in R\_2(j,s)}(y\_i-c\_2)^2  \right]
$$

遍历变量j（个人理解，这里的j可能是第j个特征吧），对固定的切分变量j扫描切分点s，选择使上式达到最小值的对(j,s)。

（2）用选定的对(j,s)划分区域并决定相应的输出值：

$$
R\_1(j,s)={x|x^{(j)}\leq s},\quad R\_2(j,s)={x|x^{(j)}> s}
$$

$$
\hat{c}*m=\frac{1}{N\_m}\sum*{x\_i\in R\_m(j,s)}y\_i,\quad x\in R\_m,\quad m=1,2
$$

（3）继续对两个子区域调用步骤（1），（2），直到满足停止条件。

（4）将输入空间划分为M个区域$$R\_1, R\_2, ... , R\_M$$，生成决策树：

$$
f(x)=\sum\_{m=1}^M\hat{c}\_mI(x\in R\_m)
$$

#### 分类树的生成

分类树用基尼指数选择最优特征，同时决定该特征的最优二值切分点。

**CART生成算法：**

输入：训练数据集D，停止计算的条件；

输出：CART决策树。

根据训练数据集，从根结点开始，递归地对每个结点进行以下操作，构建二叉决策树：

（1）设结点的训练数据集为D，计算现有特征对该数据集的基尼指数。即，对每一个特征A，对其可能取的每一个值a，根据样本点对A=a的测试为”是“或者”否“将D分割成$$D\_1$$和$$D\_2$$两部分，计算A=a时的基尼指数。

（2）在所有可能的特征A以及它们所有可能的切分点a中，选择基尼指数最小的特征及其对应的切分点作为最优特征与最优切分点。依最优特征与最优切分点，从现结点生成两个子结点，将训练数据集依特征分配到两个子结点中去。

（3）对两个子结点递归地调用（1）、（2），直到满足停止条件。

（4）生成CART决策树。

算法停止计算的条件是结点中的样本个数小于预定阈值，或样本集的基尼指数小于预定阈值（样本基本属于同一类），或者没有更多的特征。

### CHAID算法

使用**卡方检验**进行评估

## 决策树的剪枝

决策树生成算法递归地产生决策树，直到不能继续下去为止。这样产生的树往往对训练数据的分类很准确，但对未知的测试数据的分类却没有那么准确，即出现过拟合现象。解决这个问题的办法是考虑决策树的复杂度，对已经生成的决策树进行简化。

在决策树学习中将已经生成的树进行简化的过程称为剪枝。具体地，剪枝从已经生成的树上裁掉一些子树或者叶结点，并将其根结点或父结点作为新的叶结点，从而简化分类树模型。

决策树剪枝的基本策略有“预剪枝”和“后剪枝”两种：**预剪枝**(pre prune)：先设定好规则，一旦数据符合这个规则就被剪枝；**后剪枝**(post prune): 子树替换，子树提升。

* **预剪枝**是指在决策树生成过程中，对每个结点在划分前先进行估计，若当前结点的划分不能带来决策树泛化性能（验证集准确率）的提升，则停止划分并将当前结点标记为叶结点；
* **后剪枝**则是先从训练集生成一棵完整的决策树，然后自底向上地对非叶结点进行考察，若将该结点对应的子树替换为叶结点能带来决策树泛化性能提升，则将该子树替换为叶结点。

如何判断决策树泛化性能（验证集准确率）是否提升呢？这里采用留出法，即预留一部分数用作“验证集”已经醒性能评估。我们将西瓜书中的西瓜数据集2.0（这里就不写出了）随机划分成两部分，如下表所示，编号为{1,2,3,6,7,10,14,15,16,17}的样例组成训练集，编号为{4,5,8,9,11,12,13}的样例组成验证集。

![watermelon-data-set](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eCJzpsFKZ-AFEV%2Fwatermelon-data-set.png?generation=1569158107878789\&alt=media)

基于上表生成的未剪枝决策树：

![un-pruning](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eIqQCStdgPL9la%2Fun-pruning.png?generation=1569158107453941\&alt=media)

### 预剪枝

我们先讨论预剪枝。

基于信息增益准则，我们会选取属性“脐部”来对训练集进行划分，并产生3个分支，如下图所示。

![pre-pruning](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eGTLLm5hTPrYck%2Fpre-pruning.png?generation=1569158107498074\&alt=media)

然而，是否应该进行这个划分呢？预剪枝要对划分前后的泛化性能进行估计。

在划分之前，所有样例集中在根结点。若不进行划分，则根据决策树学习算法的第6行，该结点被标记为叶结点，其类别标记为训练样例数目最多的类别，假设我们将这个叶结点标记为“好瓜”。用验证集对这个单结点决策树进行评估，则编号为{4,5,8}的样例被分类正确，另外4个样例分类错误，于是，，验证集经度为3/7=42.9%。

在用“脐部”进行划分以后，上图中的结点②、③、④分别包含编号为{1,2,3,14}、{6,7,15,17}、{10,,16}的训练样例，因此这3个结点分别被标记为叶结点"好瓜"、"好瓜"、"坏瓜"。此时，验证集中编号为{4,5,8,11,12}的样例被分类正确，验证集精度为5/7=71.4%>42.9%。于是，用“脐部”进行划分得以确定。

然后，决策树算法应该对结点②进行划分，基于信息增益准则将挑选出划分属性“色泽”。然而，在使用“色泽”划分后，编号为{5}的验证集样本分类结果会由正确转变为错误，使得验证集精度下降为57.1%，于是，预剪枝策略将禁止结点②被划分。

对结点③，最优化分属性为“根蒂”，划分后验证集精度仍为71.4%。这个划分不能提升验证集精度，于是，预剪枝策略禁止结点③被划分。

对结点④，其所含训练样例已经属于同一类，不再进行划分。

于是，基于预剪枝策略从上表的数据所生成的决策树如上图所示，其验证集精度为71.4%。这是一棵仅有一层划分的决策树。

对比上面的未剪枝决策树和上图（预剪枝决策树），可以看出，预剪枝决策树使得决策树的很多分支都没有“展开”，这不仅降低了过拟合的风险，还显著少了决策树的训练时间开销和测试时间开销。但另一方面，有些分支的当前划分虽不能提升泛化性能、甚至可能导致泛化性能暂时下降，但在其基础上进行的后续划分，却有可能导致性能显著提高；预剪枝基&#x4E8E;**“贪心”本质**禁止这些分支展开，给预剪枝决策树带来了欠拟合的风险。

### 后剪枝

#### 后剪枝过程描述

后剪枝先从训练集生成一棵完整决策树，例如基于上表的数据我们得到未剪枝的决策树，如下图所示。易知，该决策树的验证集精度为42.9%。

![un-pruning](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eIqQCStdgPL9la%2Fun-pruning.png?generation=1569158107453941\&alt=media)

后剪枝首先考察未剪枝决策树中的结点⑥。若将其领衔的分支剪除，则相当于把⑥替换为叶结点。替换后的叶结点包含编号为{7,15}的训练样本，于是，该叶结点的类别标记为“好瓜”，此时决策树的验证集精度提高至57.1%。于是，后剪枝策略决定剪枝，如下图所示。

然后考察结点⑤，若将其领衔的子树替换为叶结点，则替换后的叶结点包含编号为{6,7,15}的训练样例，叶结点类别标记为“好瓜”，此时决策树验证集精度仍为57.1%。于是，可以不进行剪枝。

对结点②，若将其领衔的子树替换为叶结点，则替换后的叶结点包含编号为{1,2,3,14}的训练样例，叶结点标记为“好瓜”。此时决策树的验证集精度提高至71.4%.于是，后剪枝策略决定剪枝。

对结点③和①，若将其领衔的子树替换为叶结点，则所得决策树的验证集精度分别为71.4%与42.9%，均未得到提高.于是它们被保留。

最终，基于后剪枝策略上表数据所生成的决策树如下图所示，其验证集精度为71.4%。

![post-pruning](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eK-L7l0XDwZxU_%2Fpost-pruning.png?generation=1569158108391036\&alt=media)

对比上图（后剪枝）和上上上图（预剪枝）可看出，后剪枝决策树通常比预剪枝决策树保留了更多的分支。一般情形下，后剪枝决策树的欠拟合风险很小，泛化性能往往优于预剪枝决策树。但后剪枝过程是在生成完全决策树之后进行的，并且要自底向上地对树中的所有非叶结点进行逐一考察，因此其训练时间开销比未剪枝决策树和预剪枝决策树都要大得多。

#### 后剪枝算法

上面说得比较直觉化，下面用公式来较严格地说明后剪枝过程。

决策树的剪枝旺旺通过极小化决策树整体的损失函数或代价函数来实现。设树T的叶结点个数为|T|，t是树T的叶结点，该叶结点上有Nt个样本点，其中k类的样本点有Ntk个，k=1,2,...,K，Ht(T)为叶结点t上的经验熵，α≥0为参数，则决策树学习的损失函数可以定义为

$$
C\_{\alpha}(T)=\sum\_{t=1}^{|T|}N\_tH\_t(T)+\alpha|T|
$$

其中经验熵为

$$
H\_t(T)=-\sum\_k\frac{N\_{tK}}{Nt}\text{log}\frac{N\_{tK}}{N\_t}
$$

在损失函数中，将上上式有段的第1项记作

$$
C(T)=\sum\_{t=1}^{|T|}N\_tH\_t(T)=-\sum\_{t=1}^{|T|}\sum\_{k=1}^KN\_{tk}\text{log}\frac{N\_{tk}}{N\_t}
$$

这时有

$$
C\_{\alpha}(T)=C(T)+\alpha|T|
$$

上式中，C(T)表示模型对训练数据的预测误差，即模型与训练数据的拟合程度，|T|表示模型复杂度，参数α≥0控制两者之间的影响，较大的α促使选择较简单的模型（树），较小的α促使选择较复杂的模型（树）。α=0意味着只考虑模型与训练数据的拟合成都，不考虑模型的复杂度。

剪枝，就是当α确定时，选择损失函数最小的模型，即损失函数最小的子树。当α值确定时，子树越大，往往与训练数据的拟合越好，但是模型的复杂度就越高；相反，子树越小，模型的复杂度就越低，但是往往与训练数据的拟合不好。损失函数正好表示了对两者的平衡。

可以看出，决策树生成只针对了通过提高信息增益（或者信息增益率）对训练数据进行了更好的拟合，而决策树剪枝通过优化函数损失函数还考虑了减小模型复杂度。**决策树生成学习局部的模型，而决策树剪枝学习整体的模型。**

上式定义的考虑了模型复杂度的损失函数的街笑话等价于正则化的极大似然估计。所以，利用损失函数最小原则进行剪枝就是用正则化的极大似然估计进行模型选择。

决策树剪枝过程的示意图如下图所示：

![decision-tree-pruning](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eMeH24cfETCCAe%2Fdecision-tree-pruning.png?generation=1569158107926534\&alt=media)

**树的剪枝算法：**

输入：生成算法产生的整个树T，参数α

输出：修剪后的子树Tα。

（1）计算每个结点的经验熵。

（2）递归地从树的叶结点向上回缩。

设一组叶结点回缩到其父结点之前与之后的整体树分别为$T\_B$和$T\_A$，其对应的损失函数值分别是Cα(T\_B)和Cα(T\_A)，如果

$$
C\_{\alpha}(T\_A)\leq C\_{\alpha}(T\_B)
$$

则进行剪枝，即将父结点变为新的叶结点。

（3）返回（2），直至不能继续为止，得到损失函数最小的子树Tα。

注意，上式只需考虑两个数的损失函数的差，其计算可以在局部进行，所以，决策树的简直算法可以由一种动态规划的算法实现。

#### CART后剪枝

CART剪枝算法从“完全生长”的决策树的底端剪去一些子树，使决策树变小（模型变简单），从而能够对未知数据有更准确的预测。

CART剪枝算法由两步组成：首先从生成算法产生的决策树T0底端开始不断剪枝，直到T0的根结点，形成一个子树序列{T0, T1, ... , Tn}；然后通过交叉验证法在独立的验证数据集上对子树序列进行测试，从中选择最优子树。

**1.剪枝，形成一个子树序列**

在剪枝过程中，计算子树的损失函数：

$$
C\_{\alpha}(T)=C(T)+\alpha|T|
$$

其中，T为任意子树，C(T)为对训练数据的预测误差（如基尼指数），|T|为子树的叶结点个数，α≥0为超参数，Cα(T)为参数是α时的子树T的整体损失。参数α权衡训练数据的拟合程度与模型的复杂度。

对固定的α，—定存在使损失函数Cα(T)最小的子树，将其表示为Tα。Tα在损失函数Cα(T)最小的意义下是最优的。容易验证这样的最优子树是唯一的。当α大的时候，最优子树Tα偏小；当α小的时候，最优子树Tα偏大。极端情况，当α= 0时，整体树是最优的。当α→∞时，根结点组成的单结点树是最优的。

Breiman等人证明：可以用递归的方法对树进行剪枝。将α从小增大，0 = α0 < α1 < ... < αn < +∞，产生一系列的区间\[αi, α(i+1)), i=0,1,...,n；剪枝得到的子树序列对应着区间α ∈ \[αi, α(i+1)), i=0,1,...,n的最优子树序列{T0, T1 ,... ,Tn}，序列中的子树是**嵌套**的。

具体地，从整体树T0开始剪枝。对T0的任意内部结点t，以t为单结点树的损失函数是

$$
C\_{\alpha}(t)=C(t)+\alpha
$$

这里以t为单结点树的意思是：把以t为根结点的子树全部剪枝到t结点，那么这个树的叶结点个数|t|=1，因为t只有它一个结点嘛。

而以t为根结点的子树Tt的损失函数是

$$
C\_{\alpha}(T\_t)=C(T\_t)+\alpha|T\_t|
$$

当α=0及α充分小时，显然，有不等式

$$
C\_{\alpha}(T\_t)\<C\_{\alpha}(t)
$$

上式怎么理解呢？很好理解啊，如果不考虑树的复杂度，Tt子树是依据属性进行分类的嘛，显然会比全都混在一起更有秩序嘛。

当α增大时，在某一α有

$$
C\_{\alpha}(T\_t)=C\_{\alpha}(t)
$$

当α再增大时，上上式的不等式反向。

由上式可得，只要

$$
\alpha=\frac{C(t)-C(T\_t)}{|T\_t|-1}
$$

，Tt与t有相同的损失函数值，而t的结点少（只有一个结点），因此t比Tt更有效，对Tt进行剪枝。

为此，对T0中每一内部结点t，计算

$$
g(t)=\frac{C(t)-C(T\_t)}{|T\_t|-1}
$$

它表示剪枝后整体损失函数减少的程度。在T0中剪去g(t)最小的Tt，将得到的子树作为T1，同时将最小的g(t)设为α1。T1为区间\[α1,α2)的最优子树。

如此剪枝下去，直至得到根结点。在这一过程中，不断地增加α的值，产生新的区间。

**2.在剪枝得到的子树序列T0, T1, ..., Tn中通过交叉验证选取最优子树Tα**

具体地，利用独立的验证数据集，测试子树序列T0, T1, ..., Tn中各棵子树的平方误差或基尼指数。平方误差或基尼指数最小的决策树被认为是最优的决策树。在子树序列中，每棵子树T1, T2, ..., Tn都对应于一个参数α1, α2, ..., αn。所以，当最优子树Tk确定时，对应的αk也确定了，即得到最优决策树Tα。

现在写出CART剪枝算法。

**CART剪枝算法：**

输入：CART算法生成的决策树；

输出：最优决策树Tα。

（1）设k=0，T=T0。

（2）设α=+∞。

（3）自下而上地对各内部结点t计算C(Tt)，|Tt|以及

$$
\begin{aligned}
g(t)&=\frac{C(t)-C(T\_t)}{|T\_t|-1}\\
\alpha&=\text{min}(\alpha,g(t))\\
\end{aligned}
$$

这里，Tt表示以t为根结点的子树，C(Tt)是对训练数据的预测误差，|Tt|是Tt的叶结点的个数。

（4）对g(t)=α的内部结点t进行剪枝，并对叶结点t以多数表决确定其类，得到树T。

（5）设k=k+1，αk=α，Tk=T。

（6）如果Tk不是由根结点及两个叶结点构成的树，则回到步骤（3）（**这里尚存疑问，是在剪枝之前只计算一次所有子树的g(t)呢，还是每次循环都算一遍所有子树的g(t)？**）；否则令Tk=Tn。

（7）采用交叉验证法，在子树序列T0, T1, ..., Tn中选取最优子树Tα。

## 连续与缺失值

### 连续值处理

到目前为止我们仅讨论了基于离散属性来生成决策树。现实学习任务中常会遇到连续属性，有必要讨论如何在决策树学习中使用连续属性。

由于连续属性的可取值数目不再有限，因此，不能直接根据连续属性的可取值来对结点进行划分。此时，**连续属性离散化技术**可派上用场。最简单的策略是采用二分法(bi-partition)对连续属性进行处理，这正是C4.5决策树算法中采用的机制。

给定样本集D和连续属性A，假定A在D上出现了n个不同的取值，将这些值从小到大进行排序，记为

$$
{a^1,a^2,...,a^n}
$$

。基于划分点t可将D分为子集$D\_t^-$和$D\_t^+$，其中$D\_t^-$包含那些在属性a上取值不大于t的样本，而$D\_t^+$则包含那些在属性a上取值大于t的样本。显然，对相邻的属性取值$a^i$与$a^{i+1}$来说，t在区间

$$
\[a^i,a^{i+1})
$$

中取任意值所产生的划分结果相同。因此，对连续属性A，我们可考察包括n-1个元素的候选划分点集合

$$
T\_a=\left{\frac{a^i+a^{i+1}}{2}|1\leqslant i \leqslant n-1\right}
$$

，即把区间的中位点

$$
\frac{a^i+a^{i+1}}{2}
$$

作为候选点划分。然后，我们就可以像离散属性值一样来考察这些划分点，选取最优的划分点进行样本集合的划分。

用公式表达如下式：

$$
\begin{aligned}
H(D,A)&=\mathop{\text{max}}*{t\in T\_a}\ H(D,A,t)\\
&=\mathop{\text{max}}*{t\in T\_a}\ H(D)-\sum\_{\lambda\in {-,+}}\frac{|D\_t^{\lambda}|}{|D|}H(D\_t^{\lambda})\\
\end{aligned}
$$

其中，H(D,A,t)是样本集D基于划分点t二分后的信息增益。于是，我们就选择使H(D,A,t)最大的划分点。

举例说明，我们可以在上面的西瓜数据集2.0上增加两个连续属性“密度”和“含糖率”，然后用这个数据集来生成一棵决策树。

![continuous-value-decision-tree](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eQn5kdq_i9p46F%2Fcontinuous-value-decision-tree.png?generation=1569158108007190\&alt=media)

需注意的是，与离散属性不同，若当前结点划分属性为连续属性，该属性还可作为其后代结点的划分属性。例如在父结点上使用了“密度≤0.381”，不会禁止在子结点上使用“密度≤0.294”。

### 缺失值处理

现实任务中常会遇到不完整样本，即样本的某些属性值缺失。例如由于诊测成本、因此保护等因素，患者的医疗数据在某些属性上的取值（如HIV测试结果）未知；尤其是在属性数目较多的情况下，往往会由大量样本出现缺失值。如果简单地放弃不完整样本，仅使用无缺失值的样本来进行学习，显然是对数据信息极大的浪费。下表是西瓜数据集2.0出现缺失值的版本，如果放弃不完整的样本，则仅有编号{4,7,14,16}的4个样本能够被使用。显然，有必要考虑利用有缺失值的训练样例来进行学习。

![watermellon-data-missing](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eSjfFJ3jFWX7iP%2Fwatermellon-data-missing.png?generation=1569158107875015\&alt=media)

我们需解决两个问题：

（1）如何在属性值缺失的情况进行划分属性选择？

（2）给定划分属性，若样本在该属性上的值缺失，如何对样本进行划分？

给定训练集D和属性A，令$\tilde{D}$表示D中在属性A上没有缺失值的样本子集。

对问题（1），显然我们仅可根据$\tilde{D}$来判断属性a的优劣，假定属性A有V个可取值${a^1,a^2,...,a^V}$，令$\tilde{D}^v$表示$\tilde{D}$中在属性a上取值为$a^v$的样本子集，$\tilde{D}\_k$表示$\tilde{D}$中属于第k类(k=1,2,...,|y|)的样本子集，则显然有

$$
\begin{aligned}
\tilde{D}&=\cup\_{k=1}^{|y|}\tilde{D}*k\\
\tilde{D}&=\cup*{v=1}^{V}\tilde{D}^v\\
\end{aligned}
$$

。假定我们为每一个样本x赋予一个权重$w\_x$，并定义

$$
\begin{aligned}
\rho&=\frac{\sum\_{x\in \tilde{D}}w\_x}{\sum\_{x\in D}w\_x}\\
\tilde p\_k&=\frac{\sum\_{x\in \tilde{D}*k}w\_x}{\sum*{x\in \tilde{D}}w\_x}\quad (1\leqslant k\leqslant|y|)\\
\tilde r\_v&=\frac{\sum\_{x\in \tilde{D}^v}w\_x}{\sum\_{x\in \tilde{D}}w\_x}\quad (1\leqslant v \leqslant V)\\
\end{aligned}
$$

直观地看，对属性A，

ρ表示无缺失值样本所占的比例；

$\tilde{p}\_k$表示无缺失值样本中第k类所占的比例；

$\tilde{r}\_v$则表示无缺失值样本中在属性A上取值$a^v$的样本所占的比例。

显然，

$$
\sum\_{k=1}^{|y|}\tilde{p}*k=1,\quad \sum*{v=1}^V \tilde{r}\_v=1
$$

基于上述定义，我们可将信息增益的计算式推广为

$$
\begin{aligned}
H(D,A)&=\rho\times H(\tilde{D},A)\\
&=\rho \times \left( H(\tilde{D})-\sum\_{v=1}^V \tilde{r}\_vH(\tilde{D}^v)  \right)
\end{aligned}
$$

其中，

$$
H(\tilde{D})=-\sum\_{k=1}^{|y|}\tilde{p}\_k\text{log}\_2\tilde{p}\_k
$$

对于问题（2）若样本x在划分属性A上的取值已知，则将x划入与其取值对应的子结点，且样本权值在子节点中保持为wx。若样本x在划分属性A上的取值未知，则将x同时划入所有子结点，且样本权值在与属性值$a^v$对应的子结点中调整为$\tilde{r}\_vw\_x$；**直观地看，这就是让同一个样本以不同的概率划入到不同的子结点中去**。

## 多变量决策树

若我们把每个属性视为坐标空间中的一个坐标轴，则d个属性描述的样本就对应了d维空间中的一个数据点，对样本分类则意味着在这个坐标空间中寻找不同类样本之间的分类边界。决策树所形成的分类边界有一个明显的特点：**轴平行**(axis-paralld)，即它的分类边界由若干个与坐标轴平行的分段组成。

举例说明，以下图所示的决策树为例：

![watermellon-dataset3-decision-tree](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eW6xTq_CsWVw5v%2Fwatermellon-dataset3-decision-tree.png?generation=1569158107916504\&alt=media)

这棵树所对应的分类边界如下图所示：

![classification-boundary](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eYHNPl-RpOtoYj%2Fclassification-boundary.png?generation=1569158107847779\&alt=media)

显然，分类边界的每一段都是与坐标轴平行的。这样的分类边界使得学习结果有较好的可解释性，因为每一段划分都直接对应了某个属性取值。但在学习任务的真实分类边界比较复杂时，必须使用很多段划分才能获得较好的近似，如下图所示；此时的决策树会相当复杂，由于要进行大量的属性测试，预测时间开销会很大。

![classification-boundary-approximation](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65e_mlntFPhwLkno%2Fclassification-boundary-approximation.png?generation=1569158107935983\&alt=media)

若能使用斜的划分边界，如上图所示的红色线段，则决策树模型将大为简化。“多变量决策树”就是能实现这样的"斜划分"甚至更复杂划分的决策树。

以实现斜划分的多变量决策树为例，在此列决策树中，非叶结点不再是仅仅针对某一个属性，而是对属性的线性组合进行测试；换言之，每个非叶结点是一个形如

$$
\sum\_{i=1}^d w\_ia\_i=t
$$

的线性分类器，其中wi是属性ai的权重，wi和t可在该结点所含的样本集和属性集上学得。

于是，与传统的“单变量决策树”不同，在多变量决策树的学习过程中，不是为每个非叶结点寻找一个最优化分属性，而是试图建立一个合适的线性分类器l。例如，我们可以学得这样一个多变量决策树，其分类边界如下图所示。

![multivariable-decision-tree](https://3298324061-files.gitbook.io/~/files/v0/b/gitbook-legacy-files/o/assets%2F-LpO5sn2FY1C9esHFJmo%2F-LpO5t6XJGnSXrbsZ_UC%2F-LpO65eccXHedHXlG8Z5%2Fmultivariable-decision-tree.png?generation=1569158108036071\&alt=media)

## 决策树的优缺点

* 优点
  * 可解释性强
  * 可处理混合类型特征
  * 具体伸缩不变性（不用归一化特征）
  * 有特征组合的作用
  * 可自然地处理缺失值
  * 对异常点鲁棒
  * 有特征选择作用
  * 可扩展性强， 容易并行
* 缺点
  * 缺乏平滑性（回归预测时输出值只能输出有限的若干种数值）
  * 不适合处理高维稀疏数据&#x20;

## 参考文献

* [算法杂货铺——分类算法之决策树(Decision tree)](http://www.cnblogs.com/leoo2sk/archive/2010/09/19/decision-tree.html)

“决策树直观介绍”很大部分参考了此文章。

* 《统计学习方法》李航
* 《机器学习》周志华

本文将此两本书的相关内容进行了整合，基本就参照的这两本书的对应章节。

\======

* [决策树(decisionTree)](https://www.jianshu.com/p/da5d7a4d38dd)

这里面有ID3算法的python实现。
