【南瓜书ML】(task3)决策树和GBDT中的注意事项

发布于:2023-02-18 ⋅ 阅读:(684) ⋅ 点赞:(0)

学习心得

  • 信息增益表示节点分裂后带来的不确定性的降低或者纯度的提高,准确说是随机变量X确定后,随机变量Y不确定性的平均减少量。这个本质上是二元随机概率密度关于x和y的一元概率密度的KL散度,由Jensen不等式也可以推出当且仅当X和Y独立时KL散度值为0,即刚才的信息增益值为0.
  • 决策树根据不同的特征选择方案,分为了:ID3、C4.5、CART等算法。
    • ID3使用【信息增益】选择测试属性。从直觉上讲,小概率事件比大概率事件包含的信息量大,即百年一见的事情比习以为常的事情包含的信息量大。信息增益 = 信息熵 - 条件熵。特征取值越多就意味着确定性更高,即条件熵越小,信息增益越大。 G ( Y , X ) = H ( Y ) − H ( Y ∣ X ) G(Y,X)=H(Y)-H(Y\vert X) G(Y,X)=H(Y)H(YX)
      其中【熵】指信息量的大小,即表示随机变量的不确定性,熵越大,随机变量的不确定性越大。如果用p(ai)表示事件ai发生的概率,熵则表示为事件 a i ai ai的信息量I(ai):
      I ( a i ) = p ( a i ) log ⁡ 2 1 p ( a i ) I\left(a_{i}\right)=p\left(a_{i}\right) \log _{2} \frac{1}{p\left(a_{i}\right)} I(ai)=p(ai)log2p(ai)1
      取任意随机变量的概率均相同时,不确定性越高,即均匀分布的信息熵最大。
    • 信息增益的缺陷:泛化能力弱。如,引入特征DNA,每个人的DNA都不同,如果ID3按照DNA特征进行划分一定是最优的(条件熵为0),但这种分类的泛化能力很弱。因此C4.5就对ID3进行优化,通过引入信息增益比,一定程度上对取值比较多的特征进行惩罚,避免ID3出现过拟合的特性,提升决策树的泛化能力。
ID3树 C4.5树 CART算法
评价标准 信息增益 信息增益比(增益率) 基尼指数
样本类型 离散型变量 连续型变量 连续型变量
任务 分类 分类 分类and回归(回归树使用最小平方误差)
  • CART树:
    • 回归问题:用均方误差(MSE)或平均绝对误差(MAE)来替换熵和条件熵的位置。
    • 分类问题:用基尼系数(CART将熵中的 log ⁡ \log log p = 1 p=1 p=1处利用一阶泰勒展开,基尼系数定义为熵的线性近似)。

零、从一个栗子开始

在这里插入图片描述
通过信息增益计算的公式,我们可以计算我们的决策特征顺序,首先计算总的经验熵:
H ( D ) = − ( 9 / 15 ) log ⁡ ( 9 / 15 ) − ( 6 / 15 ) log ⁡ ( 6 / 15 ) = 0.971 H(D)=-(9 / 15) \log (9 / 15)-(6 / 15) \log (6 / 15)=0.971 H(D)=(9/15)log(9/15)(6/15)log(6/15)=0.971
然后让A1、A2、A3、A4分别表示年龄、有工作、有自己房子和信贷情况4个特征,则计算年龄的信息增益为:  年龄:  g ( D , A 1 ) = H ( D ) = [ ( 5 / 15 ) H ( D 1 ) + ( 5 / 15 ) H ( D 2 ) + ( 5 / 15 ) H ( D 3 ) ] H ( D 1 ) = − ( 2 / 5 ) log ⁡ ( 2 / 5 ) − ( 3 / 5 ) log ⁡ ( 3 / 5 ) H ( D 2 ) = − ( 3 / 5 ) log ⁡ ( 3 / 5 ) − ( 2 / 5 ) log ⁡ ( 2 / 5 ) H ( D 3 ) = − ( 4 / 5 ) log ⁡ ( 4 / 5 ) − ( 1 / 5 ) log ⁡ ( 1 / 5 ) \begin{gathered} \text { 年龄: } g(D, A 1)=H(D)=[(5 / 15) H(D 1)+(5 / 15) H(D 2)+(5 / 15) H(D 3)] \\ H(D 1)=-(2 / 5) \log (2 / 5)-(3 / 5) \log (3 / 5) \\ H(D 2)=-(3 / 5) \log (3 / 5)-(2 / 5) \log (2 / 5) \\ H(D 3)=-(4 / 5) \log (4 / 5)-(1 / 5) \log (1 / 5) \end{gathered}  年龄g(D,A1)=H(D)=[(5/15)H(D1)+(5/15)H(D2)+(5/15)H(D3)]H(D1)=(2/5)log(2/5)(3/5)log(3/5)H(D2)=(3/5)log(3/5)(2/5)log(2/5)H(D3)=(4/5)log(4/5)(1/5)log(1/5)
同理其他的工作、房子和信贷对应的信息增益可以计算: g ( D , A 2 ) = 0.324 , g ( D , A 3 ) = 0.420 , g ( D , A 4 ) = 0.363 g(D, A 2)=0.324, g(D, A 3)=0.420, g(D, A 4)=0.363 g(D,A2)=0.324,g(D,A3)=0.420,g(D,A4)=0.363,可以比较发现特征A3(有自己的房子)的信息增益最大,所以我们选择特征A3作为第一个判定的特征。

一、信息论基础

1.1 节点纯度

树具有天然的分支结构。对于分类问题而言,决策树的思想是用节点代表样本集合,通过某些判定条件来对节点内的样本进行分配,将它们划分到该节点下的子节点,并且要求各个子节点中类别的纯度之和应高于该节点中的类别纯度,从而起到分类效果。

节点纯度:反映的节点样本标签的不确定性。
当一个节点的纯度较低时,说明每种类别都倾向于以比较均匀的频率出现,从而我们较难在这个节点上得到关于样本标签的具体信息,其不确定性较高。当一个节点的纯度很高时,说明有些类别倾向于以比较高的频率出现,有更多把握这个节点样本标签的具体信息,即确定性较高。

1.2 度量不确定性的函数H

那对于给定在 n n n个状态上定义的离散分布 p = [ p 1 , . . . , p n ] T \textbf{p}=[p_1,...,p_n]^T p=[p1,...,pn]T如何定义度量不确定性的函数 H ( p ) H(\textbf{p}) H(p),即 H ( p 1 , . . . , p n ) H(p_1,...,p_n) H(p1,...,pn)呢?香农(1916-2001)于1948年,在创造信息论的著名论文《A Mathematical Theory of Communication》中指出如下定理:

信息熵定理

(该定理证明见论文的Appendix 2)
若度量不确定性的函数 H H H满足三个信息熵条件,则 H H H的形式只能是

H ( p 1 , . . . , p n ) = − C ∑ i = 1 n p i log ⁡ p i H(p_1,...,p_n)=-C\sum_{i=1}^np_i\log p_i H(p1,...,pn)=Ci=1npilogpi

其中,信息熵条件如下:

  • H H H关于 p i p_i pi是连续函数。
  • p 1 = . . . = p n p_1=...=p_n p1=...=pn,则 H H H关于 n n n单调递增。
  • 若将某一个 p i p_i pi拆分为 p i 1 p_{i1} pi1 p i 2 p_{i2} pi2,即 p i 1 + p i 2 = p i p_{i1}+p_{i2}=p_i pi1+pi2=pi,则

H ( p 1 , . . . , p i − 1 , p i + 1 , . . . , p n , p i 1 , p i 2 ) = H ( p 1 , . . . , p n ) + p i H ( p i 1 p i , p i 2 p i ) H(p_1,...,p_{i-1},p_{i+1},...,p_n,p_{i1},p_{i2})=H(p_1,...,p_n)+p_iH(\frac{p_{i1}}{p_i}, \frac{p_{i2}}{p_i}) H(p1,...,pi1,pi+1,...,pn,pi1,pi2)=H(p1,...,pn)+piH(pipi1,pipi2)

(1)从构造和计算的角度而言,条件一是容易满足的。
(2)对于条件二而言,假设原来箱子里分别有10个球和100个球,加入每次摸到的球都是等概率抽出的,那么100个球的箱子产生的不确定性必然是要大于10个球的箱子产生的不确定性,即 H H H在等概率条件下关于 n n n递增。

(3)条件三看上去比较复杂,但其意义是容易理解的,即 n n n个事件拆分为 n + 1 n+1 n+1个事件时的不确定性增加了,并且增加的不确定性与拆分时的比例和拆分事件的概率有关。举例来说:将 p = [ 0.9 , 0.1 ] \textbf{p}=[0.9,0.1] p=[0.9,0.1]分别拆分为 p 1 = [ 0.45 , 0.45 , 0.1 ] \textbf{p}_1=[0.45,0.45,0.1] p1=[0.45,0.45,0.1] p 2 = [ 0.9 , 0.05 , 0.05 ] \textbf{p}_2=[0.9,0.05,0.05] p2=[0.9,0.05,0.05],那么显然 p 1 \textbf{p}_1 p1增加的不确定性远超过 p 2 \textbf{p}_2 p2;同时,将 p = [ 0.9 , 0.1 ] \textbf{p}=[0.9,0.1] p=[0.9,0.1]分别拆分为 p 3 = [ 0.8 , 0.1 , 0.1 ] \textbf{p}_3=[0.8,0.1,0.1] p3=[0.8,0.1,0.1],那么显然 p 1 \textbf{p}_1 p1增加的不确定性也远超过 p 3 \textbf{p}_3 p3

由于指标 H ( p ) H(\textbf{p}) H(p) 中的自变量 p \textbf{p} p 是对于某个随机变量 Y Y Y 分布的描述,因此不妨将其记为信息熵 H ( Y ) H(Y) H(Y) 来反应 Y Y Y 的不确定性。对于定义在有限状态集合 { y 1 , . . . , y K } \{y_1,...,y_K\} {y1,...,yK}上的离散变量而言,对应信息熵的最大值在离散均匀分布时取到,最小值在单点分布时取到。此时,离散信息熵为
H ( Y ) = − ∑ k = 1 K p ( y k ) log ⁡ 2 p ( y k ) H(Y)=-\sum_{k=1}^K p(y_k)\log_2p(y_k) H(Y)=k=1Kp(yk)log2p(yk)
首先,我们需要定义当 p = 0 p=0 p=0 p log ⁡ 2 p ≜ 0 p\log_2p\triangleq 0 plog2p0,原因在于

lim ⁡ p → 0 + p log ⁡ p = lim ⁡ p → 0 + log ⁡ p 1 / p = lim ⁡ p → 0 + 1 / p − 1 / p 2 = lim ⁡ p → 0 + − p = 0 \lim \limits_{p\to 0^+} p \log{p} = \lim \limits_{p \to 0^+} \frac{\log p}{1/p} = \lim \limits_{p \to 0^+} \frac{1/p}{-1/p^2}=\lim \limits_{p \to 0^+} -p = 0 p0+limplogp=p0+lim1/plogp=p0+lim1/p21/p=p0+limp=0

离散熵的极值问题是带有约束的极值问题,记 p k = P ( Y = y k ) p_k=P(Y=y_k) pk=P(Y=yk) p = [ p 1 , . . . , p K ] T \mathbf{p}=[p_1,...,p_K]^T p=[p1,...,pK]T,则约束条件为 1 T p = 1 \mathbb{1}^T\mathbf{p}=1 1Tp=1,拉格朗日函数为
L ( p ) = − p T log ⁡ p + λ ( 1 T p − 1 ) L(\mathbf{p})=-\mathbf{p}^T\log \mathbf{p} + \lambda (\mathbb{1}^T\mathbf{p}-1) L(p)=pTlogp+λ(1Tp1)

求偏导数后可解得 p ∗ = [ 1 K , . . . , 1 K ] T \mathbf{p}^*=[\frac{1}{K},...,\frac{1}{K}]^T p=[K1,...,K1]T,此时 E Y I ( p ) = log ⁡ K \mathbb{E}_{Y}I(p)=\log K EYI(p)=logK

补充材料:有关向量求导的内容可参考这个wiki页面中的描述。

对于离散随机变量 X X X,由于 p ( Y ) ∈ [ 0 , 1 ] p(Y)\in [0,1] p(Y)[0,1]

− log ⁡ 2 p ( Y ) ≥ 0 -\log_2p(Y)\geq 0 log2p(Y)0

从而 E Y I ( p ) ≥ 0 \mathbb{E}_{Y}I(p)\geq 0 EYI(p)0
注意到对于 ∀ k ∈ { 1 , . . . , K } \forall k\in \{1,...,K\} k{1,...,K},当 p k = 1 p_k=1 pk=1,即 p k ′ = 0 ( k ′ ∈ { 1 , . . . , K } / k ) p_{k'}=0(k'\in \{1,...,K\}/k) pk=0(k{1,...,K}/k)时, H ( X ) = 0 H(X)=0 H(X)=0。因此,离散信息熵的最小值为0且在单点分布时取到。由于 p ∗ \mathbf{p}^* p是极值问题的唯一解,因此离散熵的最大值为 log ⁡ K \log K logK且在离散均匀分布时取到。

1.3 条件熵

在决策树的分裂过程中,我们不但需要考察本节点的不确定性或纯度,而且还要考察子节点的平均不确定性或平均纯度来决定是否进行分裂。子节点的产生来源于决策树分支的条件,因此我们不但要研究随机变量的信息熵,还要研究在给定条件下随机变量的平均信息熵或条件熵 C o n d i t i o n a l Conditional Conditional E n t r o p y Entropy Entropy)。从名字上看,条件熵就是条件分布的不确定性,那么自然可以如下定义条件熵 H ( Y ∣ X ) H(Y\vert X) H(YX)

E X [ E Y ∣ X [ − log ⁡ 2 p ( Y ∣ X ) ] ] \mathbb{E}_{X}[\mathbb{E}_{Y\vert X}[-\log_2p(Y\vert X)]] EX[EYX[log2p(YX)]]

对于离散条件熵,设随机变量 X X X所有可能的取值为 { x 1 , . . . , x M } \{x_1,...,x_M\} {x1,...,xM},上式可展开为

− ∑ m = 1 M p ( x m ) ∑ k = 1 K p ( y k ∣ X = x m ) log ⁡ 2 p ( y k ∣ X = x m ) -\sum_{m=1}^Mp(x_m)\sum_{k=1}^K p(y_k\vert X=x_m)\log_2p(y_k\vert X=x_m) m=1Mp(xm)k=1Kp(ykX=xm)log2p(ykX=xm)
``
sklearn的sklearn.tree.DecisionTreeClassifier的参数min_impurity_decrease用来描述父节点的不纯度 - 子节点的不纯度:
在这里插入图片描述

上图源自sklearn的sklearn.tree.DecisionTreeClassifier介绍

1.4 信息增益

有了信息熵和条件熵的基础,我们就能很自然地定义信息增益(Information Gain),即节点分裂之后带来了多少不确定性的降低或纯度的提高。在得到了随机变量 X X X的取值信息时,随机变量 Y Y Y 不确定性的平均减少量为

G ( Y , X ) = H ( Y ) − H ( Y ∣ X ) G(Y,X)=H(Y)-H(Y\vert X) G(Y,X)=H(Y)H(YX)

从直觉上说,随机变量 Y Y Y关于 X X X的信息增益一定是非负的,因为我们额外地知道了随机变量 X X X的取值,这个条件降低了 Y Y Y的不确定性。下面我们就从数学角度来证明其正确性。


定理:设 Y Y Y X X X为离散随机变量, Y Y Y关于 X X X的信息增益 G ( Y , X ) G(Y,X) G(Y,X)非负。
证明:
由信息增益的定义得:
G ( Y , X ) = E Y [ − log ⁡ 2 p ( Y ) ] − E X [ E Y ∣ X [ − log ⁡ 2 p ( Y ∣ X ) ] ] = − ∑ k = 1 K p ( y k ) log ⁡ 2 p ( y k ) + ∑ m = 1 M p ( x m ) ∑ k = 1 K p ( y k ∣ X = x m ) log ⁡ 2 p ( y k ∣ X = x m ) = − ∑ k = 1 K [ ∑ m = 1 M p ( y k , x m ) ] log ⁡ 2 p ( y k ) + ∑ k = 1 K ∑ m = 1 M p ( x m ) p ( y k , x m ) p ( x m ) log ⁡ 2 p ( y k , x m ) p ( x m ) = ∑ k = 1 K ∑ m = 1 M p ( y k , x m ) [ log ⁡ 2 p ( y k , x m ) p ( x m ) − log ⁡ 2 p ( y k ) ] = − ∑ k = 1 K ∑ m = 1 M p ( y k , x m ) log ⁡ 2 p ( y k ) p ( x m ) p ( y k , x m ) \begin{aligned} G(Y,X)&=\mathbb{E}_{Y}[-\log_2p(Y)]-\mathbb{E}_{X}[\mathbb{E}_{Y\vert X}[-\log_2p(Y\vert X)]]\\ &=-\sum_{k=1}^Kp(y_k)\log_2p(y_k)+\sum_{m=1}^Mp(x_m)\sum_{k=1}^K p(y_k\vert X=x_m)\log_2p(y_k\vert X=x_m) \\ &=-\sum_{k=1}^K[\sum_{m=1}^Mp(y_k, x_m)]\log_2p(y_k)+\sum_{k=1}^K\sum_{m=1}^M p(x_m)\frac{p(y_k, x_m)}{p(x_m)}\log_2\frac{p(y_k, x_m)}{p(x_m)}\\ &=\sum_{k=1}^K\sum_{m=1}^Mp(y_k,x_m)[\log_2\frac{p(y_k, x_m)}{p(x_m)}-\log_2p(y_k)] \\ &=-\sum_{k=1}^K\sum_{m=1}^M p(y_k,x_m) \log_2\frac{p(y_k)p(x_m)}{p(y_k, x_m)} \end{aligned} G(Y,X)=EY[log2p(Y)]EX[EYX[log2p(YX)]]=k=1Kp(yk)log2p(yk)+m=1Mp(xm)k=1Kp(ykX=xm)log2p(ykX=xm)=k=1K[m=1Mp(yk,xm)]log2p(yk)+k=1Km=1Mp(xm)p(xm)p(yk,xm)log2p(xm)p(yk,xm)=k=1Km=1Mp(yk,xm)[log2p(xm)p(yk,xm)log2p(yk)]=k=1Km=1Mp(yk,xm)log2p(yk,xm)p(yk)p(xm)

从上式可以发现,信息增益 G ( Y , X ) G(Y,X) G(Y,X)在本质上就是 p ( y , x ) p(y,x) p(y,x)关于 p ( y ) p ( x ) p(y)p(x) p(y)p(x)的KL散度,而KL散度的非负性由Jensen不等式可得:

G ( X , Y ) ≥ − log ⁡ 2 [ ∑ k = 1 K ∑ m = 1 M p ( y k , x m ) p ( y k ) p ( x m ) p ( y k , x m ) ] = − log ⁡ 2 [ ∑ k = 1 K ∑ m = 1 M p ( y k , x m ) ] = 0 \begin{aligned} G(X,Y)&\geq -\log_2 [\sum_{k=1}^K\sum_{m=1}^M p(y_k,x_m)\frac{p(y_k)p(x_m)}{p(y_k, x_m)}]\\ &= -\log_2 [\sum_{k=1}^K\sum_{m=1}^Mp(y_k,x_m)] = 0 \end{aligned} G(X,Y)log2[k=1Km=1Mp(yk,xm)p(yk,xm)p(yk)p(xm)]=log2[k=1Km=1Mp(yk,xm)]=0


上述证明中的Jensen不等式的取等条件为 p ( y , x ) = p ( y ) p ( x ) p(y,x)=p(y)p(x) p(y,x)=p(y)p(x)

其实际意义为随机变量 Y Y Y X X X独立。这个条件同样与直觉相符合,因为如果 Y Y Y X X X独立,那么意味着我们无论是否知道 X X X的信息,都不会对 Y Y Y的不确定性产生影响,此时信息增益为0。

用信息增益的大小来进行决策树的节点分裂时,由于真实的分布函数未知,故用 p ( y ) p(y) p(y) p ( y ∣ x ) p(y\vert x) p(yx)的经验分布(即频率)来进行概率的估计。若节点 N N N每个分支下的样本数量为 D 1 , . . . , D M D_1,...,D_M D1,...,DM,记 p ~ ( x m ) = D m ∑ m ′ = 1 M D m ′ ( m ∈ { 1 , . . . , M } ) \tilde{p}(x_m)=\frac{D_m}{\sum_{m'=1}^M D_{m'}}(m\in\{1,...,M\}) p~(xm)=m=1MDmDm(m{1,...,M}) p ~ ( y k ) \tilde{p}(y_k) p~(yk) p ~ ( y k ∣ x m ) \tilde{p}(y_k\vert x_m) p~(ykxm)分别为节点中第k个类别的样本占节点总样本的比例和第m个子节点中第k个类别的样本数量占该子节点总样本的比例,则节点 N N N分裂的信息增益定义为

G N ( Y , X ) = − ∑ i = 1 K p ~ ( y k ) log ⁡ 2 p ~ ( y k ) + ∑ m = 1 M p ~ ( x m ) ∑ k = 1 K p ~ ( y k ∣ x m ) log ⁡ 2 p ~ ( y k ∣ x m ) G_N(Y,X)=-\sum_{i=1}^K\tilde{p}(y_k)\log_2 \tilde{p}(y_k)+\sum_{m=1}^M\tilde{p}(x_m)\sum_{k=1}^K\tilde{p}(y_k\vert x_m)\log_2 \tilde{p}(y_k\vert x_m) GN(Y,X)=i=1Kp~(yk)log2p~(yk)+m=1Mp~(xm)k=1Kp~(ykxm)log2p~(ykxm)

【练习
定义 X , Y X,Y X,Y联合熵 H ( Y , X ) H(Y,X) H(Y,X) E ( Y , X ) ∼ p ( y , x ) [ − log ⁡ 2 p ( Y , X ) ] \mathbb{E}_{(Y,X)\sim p(y,x)}[-\log_2p(Y,X)] E(Y,X)p(y,x)[log2p(Y,X)]

对于两个离散随机变量X和Y,假设X取值集合为 X X X,Y取值集合为 Y Y Y,其联合概率分布满足为 p ( x , y ) p(x,y) p(x,y),则X和Y的联合熵(Joint Entropy)为 H ( X , Y ) = − ∑ x ∈ X ∑ y ∈ y p ( x , y ) log ⁡ p ( x , y ) H(X, Y)=-\sum_{x \in X} \sum_{y \in y} p(x, y) \log p(x, y) H(X,Y)=xXyyp(x,y)logp(x,y)𝑋 和𝑌 的条件熵(Conditional Entropy)为 H ( X ∣ Y ) = − ∑ x ∈ X ∑ y ∈ y p ( x , y ) log ⁡ p ( x ∣ y ) = − ∑ x ∈ X ∑ y ∈ y p ( x , y ) log ⁡ p ( x , y ) p ( y ) \begin{aligned} H(X \mid Y) &=-\sum_{x \in X} \sum_{y \in y} p(x, y) \log p(x \mid y) \\ &=-\sum_{x \in X} \sum_{y \in y} p(x, y) \log \frac{p(x, y)}{p(y)} \end{aligned} H(XY)=xXyyp(x,y)logp(xy)=xXyyp(x,y)logp(y)p(x,y)条件熵根据上面提到的定义也可以写成 H ( X ∣ Y ) = H ( X , Y ) − H ( Y ) H(X \mid Y)=H(X, Y)-H(Y) H(XY)=H(X,Y)H(Y)

(1)请证明如下关系:
1)   G ( Y , X ) = H ( X ) − H ( X ∣ Y ) \ G(Y,X)=H(X)-H(X\vert Y)  G(Y,X)=H(X)H(XY)
在这里插入图片描述
2)   G ( Y , X ) = H ( X ) + H ( Y ) − H ( Y , X ) \ G(Y,X)=H(X)+H(Y)-H(Y,X)  G(Y,X)=H(X)+H(Y)H(Y,X)
在上面式子基础上结合 H ( X ∣ Y ) = H ( X , Y ) − H ( Y ) H(X \mid Y)=H(X, Y)-H(Y) H(XY)=H(X,Y)H(Y)即可。
3)   G ( Y , X ) = H ( Y , X ) − H ( X ∣ Y ) − H ( Y ∣ X ) \ G(Y,X)=H(Y,X)-H(X\vert Y)-H(Y\vert X)  G(Y,X)=H(Y,X)H(XY)H(YX)
结合1)和2)

(2)下图被分为了A、B和C三个区域。若AB区域代表X的不确定性,BC区域代表Y的不确定性,那么 H ( X ) H(X) H(X) H ( Y ) H(Y) H(Y) H ( X ∣ Y ) H(X\vert Y) H(XY) H ( Y ∣ X ) H(Y\vert X) H(YX) H ( Y , X ) H(Y,X) H(Y,X) G ( Y , X ) G(Y,X) G(Y,X)分别指代的是哪片区域?
答: H ( X ) H(X) H(X)指AB区域; H ( Y ) H(Y) H(Y)指BC区域;
H ( X ∣ Y ) H(X\vert Y) H(XY)指A区域; H ( Y ∣ X ) H(Y\vert X) H(YX)指C区域;
H ( Y , X ) H(Y,X) H(Y,X)指ABC区域; G ( Y , X ) G(Y,X) G(Y,X)指B区域。
在这里插入图片描述

二、分类树的节点分裂

2.1 ID3算法

对于每个节点进行分裂决策时,我们会抽出max_features个特征进行遍历以比较信息增益的大小。特征的类别可以分为三种情况讨论:类别特征、数值特征和含缺失值的特征,它们各自的处理方法略有不同。
在这里插入图片描述

上图源自李航《统计学习方法》课件

对于类别特征而言,给定一个阈值 ϵ \epsilon ϵ,树的每一个节点会选择最大信息增益 G N m a x ( Y , X ) G^{max}_N(Y,X) GNmax(Y,X)对应的特征进行分裂,直到所有节点的相对最大信息增益 D N D a l l G N m a x ( Y , X ) \frac{D_N}{D_{all}}G^{max}_N(Y,X) DallDNGNmax(Y,X)小于 ϵ \epsilon ϵ D N D_N DN D a l l D_{all} Dall分别指节点 N N N的样本个数和整个数据集的样本个数,这种生成算法称为ID3算法。在sklearn中, ϵ \epsilon ϵ即为min_impurity_decrease

2.2 C4.5算法

C4.5算法在ID3算法的基础上做出了诸多改进,包括但不限于:处理数值特征、处理含缺失值的特征、使用信息增益比代替信息增益以及给出树的剪枝策略

PS:其中,剪枝策略将在第4节进行讲解,下面先对前3个改进的细节来进行介绍。

(1)处理数值特征

在处理节点数值特征时,可以用两种方法来将数值特征通过分割转化为类别,它们分别是最佳分割法和随机分割法,分别对应了sklearn中splitter参数的best选项和random选项。

1)随机分割法

随机分割法下,取 s ∼ U [ x m i n , x m a x ] s\sim U[x_{min}, x_{max}] sU[xmin,xmax]

其中 U [ x m i n , x m a x ] U[x_{min}, x_{max}] U[xmin,xmax]代表特征最小值和最大值范围上的均匀分布,将节点样本按照特征 x \mathbf{x} x中的元素是否超过 s s s把样本划分为两个集合,这等价于把数值变量转换为了类别变量。此时,根据这两个类别来计算树节点分裂的信息增益,并将它作为这个数值特征分裂的信息增益。

【练习】假设当前我们需要处理一个分类问题,请问对输入特征进行归一化会对树模型的类别输出产生影响吗?请解释原因。
【答】不会产生影响,最佳的信息增益是根据y的标签计算。

2)最佳分割法

最佳分割法下,依次令 s s s取遍所有的 x i ( i = 1 , . . . , D N ) x_i(i=1,...,D_N) xi(i=1,...,DN),将其作为分割点,按照特征 x \mathbf{x} x中的元素是否超过 s s s把样本划分为两个集合,计算所有 s s s对应信息增益的最大值,并将其作为这个数值特征分裂的信息增益。

(2)处理含缺失值的特征

C4.5算法处理缺失数据,样本的缺失值占比越大,那么对信息增益的惩罚就越大,这是因为缺失值本身就是一种不确定性成分。设节点 N N N的样本缺失值比例为 γ \gamma γ,记非缺失值对应的类别标签和特征分别为 Y ~ \tilde{Y} Y~ X ~ \tilde{X} X~,则修正的信息增益为

G ~ ( Y , X ) = ( 1 − γ ) G ( Y ~ , X ~ ) \tilde{G}(Y,X) = (1-\gamma)G(\tilde{Y},\tilde{X}) G~(Y,X)=(1γ)G(Y~,X~)

【练习】如果将系数替换为 1 − γ 2 1-\gamma^2 1γ2,请问对缺失值是加强了还是削弱了惩罚?
【答】削弱了惩罚项,即保留了更多,如 γ \gamma γ=0.1,这样系数会变大。

当数据完全缺失时 γ = 1 \gamma=1 γ=1,信息增益为0;当数据没有缺失值时 γ = 0 \gamma=0 γ=0,信息增益与原来的值保持一致。

(3)使用信息增益比代替信息增益

在C4.5算法中,使用了信息增益比来代替信息增益,其原因在于信息增益来选择的决策树对类别较多的特征具有天然的倾向性,例如当某一个特征 X X X(身份证号码、学号等)的类别数恰好就是样本数量时,此时由于 H ( Y ∣ X ) = 0 H(Y\vert X)=0 H(YX)=0,即 G ( Y , X ) G(Y,X) G(Y,X)达到最大值,因此必然会优先选择此特征进行分裂,但这样的情况是非常不合理的(会导致过拟合)。

在这里插入图片描述

上图源自李航《统计学习方法》课件

我们在第1节已经证明了,在类别占比均匀的情况下,类别数越多则熵越高,因此我们可以使用特征对应的熵来进行惩罚,即熵越高的变量会在信息增益上赋予更大程度的抑制,由此我们可以定义信息增益比为

G R ( Y , X ) = G ( Y , X ) H ( Y ) G^R(Y,X) = \frac{G(Y,X)}{H(Y)} GR(Y,X)=H(Y)G(Y,X)

在前面的部分中,我们讨论了单个节点如何选取特征进行分裂,但没有涉及到树节点的分裂顺序。例如下图所示,假设当前已经处理完了节点2的分裂,所有黄色节点(包括2号节点)都是当前已经存在的树节点,那么我们接下来究竟应该选取叶节点3号、4号和5号中的哪一个节点来继续进行决策以生成新的叶节点6号和7号?

在这里插入图片描述

在sklearn中提供了两种生长模式,它们分别被称为深度优先生长和最佳增益生长,当参数max_leaf_nodes使用默认值None时使用前者,当它被赋予某个数值时使用后者。

  • 深度优先生长采用深度优先搜索的方法:若当前节点存在未搜索过的子节点,则当前节点跳转到子节点进行分裂决策;若当前节点为叶节点,则调转到上一层节点,直到根节点不存在未搜索过的子节点为止。对上图而言,当前节点为2号,它的两个子节点4号和5号都没有被搜索过,因此下一步则选择两个节点中的一个进行跳转。

当决策树使用最佳增益生长时,每次总是选择会带来最大相对信息增益的节点进行分裂,直到叶节点的最大数量达到max_left_nodes

【练习】如果将树的生长策略从深度优先生长改为广度优先生长,假设其他参数保持不变的情况下,两个模型对应的结果输出可能不同吗?
【答】不影响。如果使用max_left_nodes则一定会使用最佳优先生长,但当参数max_leaf_nodes使用默认值None时为深度优先生长。

三、注意事项

1. sklearn决策树中的random_state参数控制了哪些步骤的随机性?

关于sklearn的sklearn.tree.DecisionTreeClassifier可以参考官网
random_state参数控制了特征选择的随机性,类似random.seed(),能够保证决策树模型复现的结果相同,便于模型参数调优。

clf = tree.DecisionTreeClassifier(criterion="entropy",random_state=30)

另外,splitter控制决策树中的随即选项:
1)最佳分割法即best参数:决策树在分支时虽然随机,但还是会优先选择更重要(按照不纯度设置的基尼系数或信息熵的值)的特征进行分支。

2)随机分割法即random参数:决策树在分支时更加随机,树会因为含有更多的不必要信息而更深更大,从而导致过拟合。

2. 决策树如何处理连续变量和缺失变量?

ID3只能处理离散型变量,而C4.5和CART都可以处理连续型变量。

  • C4.5处理连续型变量时,通过对数据排序之后找到类别不同的分割线作为切分点,根据切分点把连续属性转换为布尔型,从而将连续型变量转换为多个取值区间的离散型变量。
  • CART构建时每次都会对特征进行二值划分,能很好适用于连续性变量。

【处理连续变量】
C4.5算法在处理节点数值特征时,可以用两种方法来将数值特征通过分割转化为类别,它们分别是最佳分割法和随机分割法,分别对应了sklearn中splitter参数的best选项和random选项。

【处理含缺失值的特征】
C4.5算法处理缺失数据的思想非常简单,样本的缺失值占比越大,那么对信息增益的惩罚就越大,这是因为缺失值本身就是一种不确定性成分。设节点 N N N的样本缺失值比例为 γ \gamma γ,记非缺失值对应的类别标签和特征分别为 Y ~ \tilde{Y} Y~ X ~ \tilde{X} X~,则修正的信息增益为

G ~ ( Y , X ) = ( 1 − γ ) G ( Y ~ , X ~ ) \tilde{G}(Y,X) = (1-\gamma)G(\tilde{Y},\tilde{X}) G~(Y,X)=(1γ)G(Y~,X~)

当数据完全缺失时 γ = 1 \gamma=1 γ=1,信息增益为0;当数据没有缺失值时 γ = 0 \gamma=0 γ=0,信息增益与原来的值保持一致。

3. 基尼系数是什么?为什么要在CART中引入它?

当处理分类问题时,虽然ID3或C4.5定义的熵仍然可以使用,但是由于对数函数 log ⁡ \log log的计算代价较大,CART将熵中的 log ⁡ \log log p = 1 p=1 p=1处利用一阶泰勒展开,基尼系数定义为熵的线性近似,即由于

H ( Y ) = E Y I ( p ) = E Y [ − log ⁡ 2 p ( Y ) ] ≈ E Y [ 1 − p ( Y ) ] H(Y)=\mathbb{E}_YI(p)=\mathbb{E}_Y[-\log_2p(Y)]\approx\mathbb{E}_Y[1-p(Y)] H(Y)=EYI(p)=EY[log2p(Y)]EY[1p(Y)]

从而定义基尼系数为

G i n i ( Y ) = E Y [ 1 − p ( Y ) ] = ∑ k = 1 K p ~ ( y k ) ( 1 − p ~ ( y k ) ) = 1 − ∑ k = 1 K p ~ 2 ( y k ) \begin{aligned} {\rm Gini}(Y)&=\mathbb{E}_Y[1-p(Y)]\\ &=\sum_{k=1}^K \tilde{p}(y_k)(1-\tilde{p}(y_k))\\ &=1-\sum_{k=1}^K\tilde{p}^2(y_k) \end{aligned} Gini(Y)=EY[1p(Y)]=k=1Kp~(yk)(1p~(yk))=1k=1Kp~2(yk)

4. 什么是树的预剪枝和后剪枝?具体分别是如何操作的?

一棵完全生长的决策树会导致过拟合,如考虑DNA特征(每个人的DNA不同),完全生长的决策树所对应的每个叶结点中只会包含一个样本(会导致决策树过拟合,即在训练集上预测效果差)。为了提高模型泛化能力,需要对决策树进行剪枝。

(1)预剪枝

1)当树到达一定深度的时候,停止树的生长。
2)当到达当前结点的样本数量小于某个阈值的时候,停止树的生长。
3)计算每次分裂对测试集的准确度提升,当小于某个阈值的时候,不再继续扩展。

(2)后剪枝

先让算法生成一棵完全生长的决策树,然后从最底层向上计算是否剪枝。剪枝时将子树删除,用一个叶子结点替代,该结点的类别同样按照多数投票的原则判断。

四、GBDT

4.1 为什么树模型不需要特征归一化

(1)树模型是按照特征值进行排序,树模型也不能梯度下降,因为构树中寻找最优点是通过寻找最优分裂点,如果是线性模型在特征乜有进行归一化(特征值方差很大),则梯度下降时,损失等高线是椭圆形,这时需要多次迭代后才能达到最优点。
(2)数值缩放也不影响分裂点的位置
(3)但是随机森林不需要归一化,GBDT是需要归一化,通过减少bias提高性能,GBDT是通过boosting策略梯度提升求解最优解,而随机森林只是通过减少方差

Reference

[1] 陈希孺编著.概率论与数理统计[M].中国科学技术大学出版社,2009
[2] B 站视频教程:https://www.bilibili.com/video/BV1Mh411e7VU
[3] 线上南瓜书:https://datawhalechina.github.io/pumpkin-book/#/chapter1/chapter1
[4] 开源地址:https://github.com/datawhalechina/pumpkin-book
[5] 树模型为啥不需要归一化


网站公告

今日签到

点亮在社区的每一天
去签到