机器学习-决策树
相亲
示例:
现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话:
女儿:多大年纪了?
母亲:26。
女儿:长的帅不帅?
母亲:挺帅的。
女儿:收入高不?
母亲:不算很高,中等情况。
女儿:是公务员不?
母亲:是,在税务局上班呢。
女儿:那好,我去见见。
这个女孩的决策过程就是典型的分类树决策。相当于通过年龄、长相、收入和是否公务员对将男人分为两个类别:见和不见(二分类)。
决策树
决策树(decision tree)
决策树特点
-
决策树是一个 if - else 规则集合,从根节点到叶子节点的一条路径,构成一条规则。
-
所有规则具备一个重要性质:互斥并且完备。
-
节点:内部节点和叶子节点。内部节点表示一个特征。叶子节点对应一个决策结果。
解决的问题
-
分类
-
回归
优点
- 易于理解,模型可读性强
- 分类速度快,决策待见: O ( l o g 2 m ) O(log_2m) O(log2m),m 为样本特征数。
- 既可以处理离散值也可以处理连续值。很多算法只是专注离散值或者连续值。
- 相比其他算法需要更少的特征工程(比如:不需要特征标准化,可以很好处理字段缺失值,不用关心特征间是否相互依赖,自动组合多个特征)
- 可以处理多维度输出的分类问题。
- 对于异常点的容错能力好,健壮性高。
- 可以交叉验证的剪枝来选择模型,从而提高泛化能力。
缺点:
- 非常容易过拟合,导致泛化能力不强。
- 决策树会因为样本发生一点点的改动,就会导致树结构的剧烈改变。这个可以通过集成学习之类的方法解决。
- 寻找最优的决策树是一个NP难的问题,我们一般是通过启发式方法,容易陷入局部最优。可以通过集成学习之类的方法来改善。
- 有些比较复杂的关系,决策树很难学习,比如异或。这个就没有办法了,一般这种关系可以换神经网络分类方法来解决。
- 如果某些特征的样本比例过大,生成决策树容易偏向于这些特征。这个可以通过调节样本权重来改善。
比较幸运的是,防止过拟合的方法很多:
- 限制树的最大深度
- 限制叶子节点的最少样本数量。
- 限制节点分裂时的最小样本数量。
- 吸收 bagging 的思想对训练样本采样(subsample),使用部分训练样本进行训练单棵树。
- 借鉴随机森林的思想在学习单棵树时,只采用一部分特征。
- 在目标函数中添加正则项,惩罚复杂的树结构。
决策树学习步骤
- 特征选择
- 决策树的生成
- 决策树的修剪
常见的决策树算法
- ID3 算法:使用信息增益,寻找最优特征
- C4.5 算法:使用信息增益比,寻找最优特征
- CART(classification and regression tree) 算法:使用基尼系数,寻找最优特征。
生成决策树
决策树的生成是一个递归过程,递归选择最优特征,并根据该特征对训练数据进行划分,使每个子数集有一个最好的分类。
递归过程中,有三种情况会导致递归结束。
- 当前节点包含的样本全属于一个类别,无需再划分。
- 当前属性集为空,或者所有样本在所有属性上取值相同,无法划分。
- 当前节点包含的样本集合为空,不能划分。
输入:训练集 D = [ ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x m , y m ) ] D = [\,(x_1,y_1),(x_2,y_2),...,(x_m,y_m)\,] D=[(x1,y1),(x2,y2),...,(xm,ym)]
属性集 $ = [, a_1,a_2,…,a_d ,] $
TreeGenerate( D , A )
生成节点 node
if D 中样本全属于同一类别 C:
将 node 标记为 C 类的叶子节点
return
if len(A) == 0 or D 中样本在 A 上取中相同:
将 node 标记为叶子节点,其类别标记为 D 中样本最多的类。
return
从 A 中选择出最优划分属性: a ∗ a_* a∗
for a ∗ a_* a∗ in a ∗ v a_*^v a∗v:
为 node 生成一个分支,令 $D_v = $ D 中在 a ∗ a_* a∗ 上取中为 a ∗ v a_*^v a∗v 的样本子集。
if len( D v D_v Dv) == 0:
将分支节点标记为叶子节点,其类别标记为 D 中样本最多的类。
return
else:
TreeGenerate( D v , A / a ∗ D_v, A / {a_*} Dv,A/a∗)
return node
决策树代码
# 决策树
import math
class DecisionTree():
def create_tree(self, data_set, labels):
class_list = [example[0] for example in data_set]
# data_set 中的样本,类别完全相同,停止划分
if class_list.count(class_list[0]) == len(class_list):
return class_list[0]
# 只有一个特征
if len(labels) == 0 or len(data_set[0]) == 1:
return self.majority_count(class_list)
# 选择最优特征划分
best_feat = self.choose_best_feature(data_set)
best_feat_label = labels[best_feat]
my_tree = {best_feat_label: {}}
del (labels[best_feat])
feat_value_set = set([example[best_feat] for example in data_set])
for value in feat_value_set:
sub_labels = labels[:]
sub_list = self.split_data_set(data_set, best_feat, value)
if len(sub_list) == 0:
my_tree[best_feat_label][value] = self.majority_count(class_list)
else:
my_tree[best_feat_label][value] = self.create_tree(sub_list, sub_labels)
return my_tree
# 样本中类别最多
@staticmethod
def majority_count(class_list):
class_count = {}
for vote in class_list:
class_count[vote] += class_count.get(vote, 0) + 1
return sorted(class_count.items(), key=lambda x: x[1], reverse=True)[0][0]
# 使用增益率进行特征选择
def choose_best_feature(self, data_set):
num_features = len(data_set[0]) - 1
base_ent = self.calc_shannon_ent(data_set)
best_info_gain_ratio = 0.0
best_feature = -1
for i in range(num_features):
feat_set = set(example[i] for example in data_set)
new_ent = 0.0
split_info = 0.0
for value in feat_set:
sub_data_set = self.split_data_set(data_set, i, value)
prod = len(sub_data_set) / float(len(data_set))
new_ent += prod * self.calc_shannon_ent(sub_data_set)
split_info += -prod * math.log2(prod)
info_gain = base_ent - new_ent
if info_gain == 0: continue
info_gain_ratio = info_gain / split_info
if info_gain_ratio > best_info_gain_ratio:
best_info_gain_ratio = info_gain_ratio
best_feature = i
return best_feature
# 计算熵:
@staticmethod
def calc_shannon_ent(data_set):
label_count = {}
for feat_vec in data_set:
label = feat_vec[0]
label_count[label] = label_count.get(label, 0) + 1
shannon_ent = 0.0
n = len(data_set)
for label, count in label_count.items():
prob = float(count) / n
shannon_ent -= prob * math.log(prob, 2)
return shannon_ent
# 离散型特征,分隔数据集
@staticmethod
def split_data_set(data_set, axis, value):
result = []
for feat_vec in data_set:
if feat_vec[axis] != value: continue
result.append(feat_vec[:axis] + feat_vec[axis + 1:])
return result
特征选择
决策树生成过程,一个关键步骤,选择最优特征进行划分。
我们希望决策树的分支节点包含的样本属于同一类别,即节点的“纯度”(purity)越来越高。
信息增益
信息熵(information enthropy)
熵度量事物的不确定性,越不确定的事物,它的熵越大。
E n t ( X ) = − ∑ i = 1 n p i l o g 2 p i Ent(X) = -\sum_{i=1}^{n}{p_i log_2 p_i} Ent(X)=−∑i=1npilog2pi
-
n:X 的 n 种不同的离散值
-
p i p_i pi:X 取值为 i 的概率
$Ent(D) $ 的值越小,D 的纯度越高。
例子:假设 X 有两个取值A,B。P(A) =0.5,P(B) =0.5。
那么 X 具有的不确定性: E n t ( X ) = − ( 0.5 ∗ l o g 2 0.5 + 0.5 ∗ l o g 2 0.5 ) = l o g 2 2 = 1 Ent(X)=-(0.5*log_2{0.5}+0.5*log_2{0.5})=log_2{2}=1 Ent(X)=−(0.5∗log20.5+0.5∗log20.5)=log22=1
假设 X 有两个取值A,B。P(A) =1/3,P(B) =2/3。
那么 X 具有的不确定性: E n t ( X ) = − ( 1 3 ∗ l o g 2 1 3 + 2 3 ∗ l o g 2 2 3 ) Ent(X)=-(\frac{1}{3}*log_2{\frac{1}{3}}+\frac{2}{3}*log_2{\frac{2}{3}}) Ent(X)=−(31∗log231+32∗log232)
= 1 3 l o g 2 3 − 2 3 l o g 2 2 3 =\frac{1}{3}log_23-\frac{2}{3}log_2\frac{2}{3} =31log23−32log232
= l o g 2 3 − 2 3 l o g 2 3 − 2 3 l o g 2 2 3 =log_23-\frac{2}{3}log_23-\frac{2}{3}log_2{\frac{2}{3}} =log23−32log23−32log232
= l o g 2 3 − 2 3 ( l o g 2 3 + l o g 2 2 3 ) =log_23-\frac{2}{3}(log_23+log_2{\frac{2}{3}}) =log23−32(log23+log232)
= l o g 2 3 − 2 3 l o g 2 2 =log_23-\frac{2}{3}log_22 =log23−32log22
= l o g 2 3 − 2 3 < l o g 2 2 = 1 =log_23-\frac{2}{3}<log_22=1 =log23−32<log22=1
P(A) =1/3,P(B) =2/3 比 P(A) =1/2,P(B) =1/2 确定性大。
熵只与 X 的分布有关,与 X 取值无关
def calc_shannon_ent(data_set):
label_count = {}
for feat_vec in data_set:
label = feat_vec[0]
label_count[label] = label_count.get(label, 0) + 1
shannon_ent = 0.0
n = len(data_set)
for label, count in label_count.items():
prob = float(count) / n
shannon_ent -= prob * math.log(prob, 2)
return shannon_ent
联合熵
多个变量的联合熵
H ( X , Y ) = − ∑ x i ∈ X ∑ y i ∈ Y p ( x i , y i ) l o g 2 p ( x i , y i ) H(X,Y) = -\sum_{x_i \in X}\sum_{y_i \in Y}{p(x_i,y_i)log_2{p(x_i,y_i)}} H(X,Y)=−∑xi∈X∑yi∈Yp(xi,yi)log2p(xi,yi)
条件熵
条件熵类似条件概率,它度量了已知 X 后,剩下 Y 的不确定性。
H ( X ∣ Y ) = − ∑ x i ∈ X ∑ y i ∈ Y p ( x i , y i ) l o g 2 p ( x i ∣ y i ) = ∑ j = 1 n p ( y i ) H ( X ∣ y i ) H(X|Y) = -\sum_{x_i \in X}\sum_{y_i \in Y}{p(x_i,y_i)log_2{p(x_i|y_i)}}=\sum_{j=1}^np(y_i)H(X|y_i) H(X∣Y)=−∑xi∈X∑yi∈Yp(xi,yi)log2p(xi∣yi)=∑j=1np(yi)H(X∣yi)
信息增益
H(X) 度量了 X 的不确定性。
H(X|Y) 度量了,已知 Y 后 X 剩下的不确定性
H(X) - H(X|Y) 什么能度量什么?
韦恩图
-
H(X):左边的椭圆
-
H(Y):左边的椭圆
-
I (X ,Y)互信息或者信息增益:两个椭圆交集
-
H( X , Y):两个椭圆并集
-
H(X|Y)
-
H(Y|X)
G a i n ( X , Y ) = H ( X ) − H ( X ∣ Y ) Gain(X,Y) = H(X) - H(X|Y) Gain(X,Y)=H(X)−H(X∣Y)
∣ D v ∣ ∣ D ∣ \frac{|D^v|}{|D|} ∣D∣∣Dv∣ 加权:每个分支数量不一样。
信息增益特点:对可取值数目较多的属性有偏好。
决策树中信息增益等价于训练数据集中类与特征的互信息。
增益率
为了克服信息增益:对可取值数目较多的属性有偏好。使用增益率。
Gain_ratio(D,a) = G a i n ( D , a ) I V ( a ) \frac{Gain(D,a)}{IV(a)} IV(a)Gain(D,a)
I V ( a ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ l o g ∣ D i ∣ ∣ D ∣ IV(a) = -\sum_{i=1}^{n}{\frac{|D_i|}{|D|}log{\frac{|D_i|}{|D|}}} IV(a)=−∑i=1n∣D∣∣Di∣log∣D∣∣Di∣ 模仿信息熵。
- n 是特征 A 取值的个数。
增益率特点:对可取值数目较少的属性有偏好。
def choose_best_feature(self, data_set):
num_features = len(data_set[0]) - 1
base_ent = self.calc_shannon_ent(data_set)
best_info_gain_ratio = 0.0
best_feature = -1
for i in range(num_features):
feat_set = set(example[i] for example in data_set)
new_ent = 0.0
split_info = 0.0
for value in feat_set:
sub_data_set = self.split_data_set(data_set, i, value)
prod = len(sub_data_set) / float(len(data_set))
new_ent += prod * self.calc_shannon_ent(sub_data_set)
split_info += -prod * math.log2(prod)
info_gain = base_ent - new_ent
if info_gain == 0: continue
info_gain_ratio = info_gain / split_info
if info_gain_ratio > best_info_gain_ratio:
best_info_gain_ratio = info_gain_ratio
best_feature = i
return best_feature
基尼指数
基尼值
G i n i ( D ) = ∑ k = 1 K p k ∗ ( 1 − p k ) = 1 − ∑ k = 1 K p k 2 Gini(D) =\sum_{k=1}^K{p_k*(1-p_k)}=1-\sum_{k=1}^Kp_k^2 Gini(D)=∑k=1Kpk∗(1−pk)=1−∑k=1Kpk2
Gini(D) 越小,则数据集 D 的纯度越高。
基尼指数:
G i n i _ i n d e x ( D , a ) = ∑ i = 1 n ∣ D i ∣ ∣ D ∣ G i n i ( D i ) Gini\_index(D,a) = \sum_{i=1}^n{\frac{|D_i|}{|D|}Gini(D_i)} Gini_index(D,a)=∑i=1n∣D∣∣Di∣Gini(Di)
在属性集合 A 中,选择那个使得划分后基尼指数最小的特征,作为最优化划分特征。
预测
def classify(self, input_tree, feat_lables, text_vec):
first_str = list(input_tree.keys())[0]
second_dict = input_tree[first_str]
feat_index = feat_lables.index(first_str)
for key in second_dict.keys():
if text_vec[feat_index] == key:
if type(second_dict[key]).__name__ == "dict":
class_label = self.classify(second_dict[key], feat_lables, text_vec)
else:
class_label = second_dict[key]
return class_label
ID3
ID3 算法的不足
- ID3 没有考虑连续特征:比如长度,密度。大大限制了 ID3 的用途。
- ID3 采用信息增益大的特征建立决策树的节点。相同条件下,取值多的特征信息增益大(对可取值数目较多的属性有偏好)。
- ID3 算法没有考虑缺失值的情况。
- 没有考虑过拟合的问题。
C4.5
昆兰在 ID4.5 算法对ID3 的不足(连续特征,信息增益容易偏向取值较多的特征,缺失值,过拟合问题)做了改进。
连续特征处理
C4.5 的思路是将连续特征离散化。
比如有 m 个样本的连续特征 A 有 m 个,
- 从小到大排列连续特征值 [ a 1 , a 2 , . . . , a m ] [a_1,a_2,...,a_m] [a1,a2,...,am] ,
- C 4.5 取相邻两个样本的平均数,一共取得 m - 1划分点,其中第 i 个划分点 T i = a i + ( a i + 1 ) 2 T_i=\frac{a_i+(a_i+1)}{2} Ti=2ai+(ai+1)。
- 对这 m - 1 个点,分别计算:以该点作为二元分类点时的信息增益。选择信息增益最大的点作为连续特征的二元离散分类点。比如取到的信息增益最大点为 a t a_t at,那么小于 a t a_t at 的值的类别为 0,大于 a t a_t at 的值为 类别 1.
注意:与离散特征不同,如果当前节点是连续特征,这个特征后边还是可以参与子节点的产生选择过程
信息增益容易偏向取值较多的特征
引入信息增益比:
I R ( D , A ) = I ( A , D ) H A ( D ) I_R(D,A)=\frac{I(A,D)}{H_A(D)} IR(D,A)=HA(D)I(A,D)
- I ( A , D ) I(A,D) I(A,D):信息增益
- H A ( D ) H_A(D) HA(D):特征熵
- D:样本特征输出的集合
- A:样本特征
H A ( D ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ l o g 2 ∣ D i ∣ ∣ D ∣ H_A(D)=-\sum_{i=1}^n\frac{|D_i|}{|D|}log_2\frac{|D_i|}{|D|} HA(D)=−∑i=1n∣D∣∣Di∣log2∣D∣∣Di∣
-
n:特征 A 的类别数
-
D i D_i Di:特征 A 的第 i 个取值对应的样本个数
-
|D|:总样本数
特征数越多的特征对应的特征熵越大,它作为分母,可以校正信息增益容易偏向于取值较多的特征的问题。
缺失值
要解决缺失值的问题,需要解决两个问题:
一、样本某些特征值缺失的情况下,选择划分的特征。
二、选定了划分特征,对于在该特征上缺失值的样本怎么处理?
过拟合
C4.5 引入正则化系数进行初步的剪枝。
C4.5 算法不足
-
决策树非常容易过拟合,因此需要对决策树进行剪枝。剪枝的算法非常多。C 4.5 的剪枝算法仍有优化空间。思路主要两种:
-
预剪枝:生成决策树时决定是否剪枝。
-
后剪枝:先生成决策树,再通过交叉验证来剪枝。
在 CART 树,讲解决策树的剪枝思路,主要采用后剪枝加上交叉验选择最合适的决策树。
-
C4.5 生成的是多叉树,很多时候,计算机中二叉树模型运行效率高。
-
C4.5 只能用于分类,不能应用回归问题。
-
C4.5 使用了熵模型,有大量的耗时的对数运算。如果是连续特征还有大量的排序。如果能够简化模型减少运算强度但又不牺牲太多准确性的话,那就更好了。
-
CART 树
- 回归
- 分类
CART 树使用基尼系数替代信息增益比。基尼系数代表了模型的不纯度。
基尼系数越小,则不纯度越低,特征越好。和信息增益(比)是相反的
特征选择
分类问题,假设有 K 个类别,第 k 个类别的概率为 p k p_k pk,基尼系数为: G i n i ( p ) = ∑ k = 1 K ( p k ∗ ( 1 − p k ) ) = 1 − ∑ k = 1 K p k 2 Gini(p)=\sum_{k=1}^K(p_k*(1-p_k))=1-\sum_{k=1}^K{p_k^2} Gini(p)=∑k=1K(pk∗(1−pk))=1−∑k=1Kpk2
如果是二分类: G i n i ( p ) = 2 p ( 1 − p ) Gini(p)=2p(1-p) Gini(p)=2p(1−p)
样本集 D 中有 K 个类别,第 k 个类别的数量为 C k C_k Ck,则基尼系数: G i n i ( D ) = 1 − ∑ k = 1 K ( ∣ C k ∣ ∣ D ∣ ) 2 Gini(D) = 1-\sum_{k=1}^K(\frac{|C_k|}{|D|})^2 Gini(D)=1−∑k=1K(∣D∣∣Ck∣)2
样本集 D ,如果根据特征 A 的某个值 a ,把 D 分成 D1 好 D2 两部分,则在特征 A 的条件下,D 的基尼系数: G i n i ( D , A ) = ∣ D 1 ∣ ∣ D ∣ G i n i ( D 1 ) + ∣ D 2 ∣ ∣ D ∣ G i n i ( D 2 ) Gini(D,A)=\frac{|D_1|}{|D|}Gini(D_1)+\frac{|D_2|}{|D|}Gini(D_2) Gini(D,A)=∣D∣∣D1∣Gini(D1)+∣D∣∣D2∣Gini(D2)
大家比较一下基尼系数表示和熵模型的表达式,二次运算比对数运算简单很多。但是基尼系数比熵模型误差大
对于二分类,基尼系数和熵之半的曲线:
从上图可以看出,基尼系数和熵之半的曲线非常接近,因此,基尼系数可以做为熵模型的一个近似替代。
CART分类树算法就是使用的基尼系数来选择决策树的特征。同时,为了进一步简化,CART分类树算法每次仅仅对某个特征的值进行二分,而不是多分,这样 CART 分类树算法建立起来的是二叉树,而不是多叉树。这样一可以进一步简化基尼系数的计算,二可以建立一个更加优雅的二叉树模型。
连续特征和离散特征改进
与 C4.5 思想相同:将连续特征离散化。
C4.5 使用信息增益来选择划分点。
CART 分类树使用基尼系数选择划分点
比如有 m 个样本的连续特征 A 有 m 个,
-
从小到大排列连续特征值 [ a 1 , a 2 , . . . , a m ] [a_1,a_2,...,a_m] [a1,a2,...,am] ,
-
C 4.5 取相邻两个样本的平均数,一共取得 m - 1划分点,其中第 i 个划分点 T i = a i + ( a i + 1 ) 2 T_i=\frac{a_i+(a_i+1)}{2} Ti=2ai+(ai+1)。
-
对这 m - 1 个点,分别计算:以该点作为二元分类点时的基尼系数。选择基尼系数最小的点作为连续特征的二元离散分类点。比如取到的基尼系数最小点为 a t a_t at,那么小于 a t a_t at 的值的类别为 0,大于 a t a_t at 的值为 类别 1.
CART 分类树对离散值的处理思路:不停的二分离散特征。
回忆下 ID3 或 C4.5,如果特征$ A\in{A_1,A_2,A_3}$ 被选中建立决策树节点,会在决策树上建立一个三叉的节点,这样导致决策是多叉树。
CART 分类树会将 A 拆成 {A1} 和 {A2 , A3} , { A2 } 和 {A1 , A2} ,{ A3 } 和 { A1 , A2 } 分组,找基尼系数最小的组合,比如 { A1 } 和 {A2 , A3},一个节点是 A1对应样本,另一个节点是不等于 A1 的样本(类似 One-Hot-Encoding),后续还有机会处理 {A2} , {A3}
分类树构建
CART 树的剪枝算法单独讲解。
算法输入:训练集D,基尼系数的阈值:min_gini,样本个数阈值:min_count
输出:决策树 T
- if len( D ) < min_count or 没有特征:return T
- if Gini( D ) < min_gini:return T
- 处理连续值和缺失值,同 C4.5
- 计算各个特征的各个特征值对应数据集D的基尼系数,求最小值$ A_k = min([Gini(f_i,f_{other})\quad for \quad f \quad in \quad features])$
- 根据最优特征和最优特征值,将数据数据集划分成两步分D1 和 D2,同时建立左右子节点。
- 对左右子节点调用 1 - 4步,生成决策树。
预测:
如果样本落到某个叶子节点,二节点有多个训练样本,预测概率就是叶子节点概率最大的类别。
回归树构建
CART 回归树和 CART 分类树的建立和预测的主要区别
- 连续值的处理方法不同。
- 预测方式不同。
连续值
分类模型比较合适用基尼系数来度量特征的划分点的优劣。
方差的度量方式比较适合回归模型。
CART 回归树的度量目标:求出使D1 和 D2 各自集合的均方差最小,同时 D1 和 D2 的均方差之和最小。
表达式: m i n ⏟ A , s [ m i n ⏟ c 1 ∑ x i ∈ D 1 ( A , s ) ( y i − c 1 ) 2 + m i n ⏟ c 2 ∑ x i ∈ D 2 ( A , s ) ( y i − c 2 ) 2 ] \underbrace{min}_{A,s}[\underbrace{min}_{c_1} \sum_{x_i \in D_1(A,s){(y_i-c1)^2}+ \underbrace{ min}_{c_2} \sum_{x_i \in D_2(A,s)}{(y_i-c_2)^2}}] A,s min[c1 min∑xi∈D1(A,s)(yi−c1)2+c2 min∑xi∈D2(A,s)(yi−c2)2]
- c 1 c_1 c1 为 D1 数据集的样本输出的均值
- c 2 c_2 c2 为 D2 数据集的样本输出的均值
预测
采用最终叶子节点中均值或者中位数作为预测结果。
CART 树的剪枝
CART 回归树和CART 分类树剪枝策略除了在度量方式上不同,其他完全相同。
CART 分类树:基尼系数
CART 回归树:均方差
决策树很容易过拟合,导致泛化能力差,所以需要剪枝。
CART 树剪枝思想:后剪枝
后剪枝:生成决策树,然后使用交叉验证来检验各种剪枝的效果,选择泛化能力最好的剪枝策略。
CART 树剪枝算法两步:
- 从原始决策树生成各种剪枝效果的决策树
- 交叉验证
剪枝的损失函数: C a ( T t ) = C ( T t ) + a ∣ T t ∣ C_a(T_t)=C(T_t)+a|T_t| Ca(Tt)=C(Tt)+a∣Tt∣
- a:正则化参数
- C ( T t ) C(T_t) C(Tt) 为训练数据的预测误差,分类树是用基尼系数度量,回归树是均方差度量.
- ∣ T t ∣ |T_t| ∣Tt∣:子树T的叶子节点的数量。
a 越大,则剪枝剪的越厉害,生成的最优子树相比原生决策树就越偏小。
对于固定的 α,一定存在使损失函数 C α ( T ) C_α(T) Cα(T)最小的唯一子树。
剪枝思路
CART 小结
算法 | 支持模型 | 树结构 | 特征选择 | 连续值 | 剪枝 | 缺失值 |
---|---|---|---|---|---|---|
ID3 | 分类 | 多叉树 | 信息增益 | 不支持 | 不支持 | 不支持 |
C4.5 | 分类 | 多叉树 | 信息增益比 | 支持 | 支持 | 支持 |
CART | 分类,回归 | 二叉树 | 基尼系数,均方差 | 支持 | 支持 | 支持 |
CART 树的缺点
- 不支持多变量决策树(multi-variate decision tree)。ID3,C4.5,CART 在做特征选择时都是选择最优的一个特征来做决策。但是大多数分类决策不应该由某一个特征决定,而是由一组特征决策。多变量决策树代表是 OC1
- 如果样本发送一点点的改动,就会导致树结构的剧烈改变。通过集成学习里的随机森林的方法解决。
原文地址:https://blog.csdn.net/junxinsiwo/article/details/142586785
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!