如何写出一篇外人能看懂的操作,让别人了解怎么一步一步用,得到数据,划分数据集,模型3步曲,画出决策树。
决策树参数
Decision Tree是一种非参数的监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,可解决分类和回归问题。它本质是一种图结构,只需要问一系列问题就可以对数据进行分类。
补充:参数模型与非参数模型
参数机器学习算法
当算法简化成一个已知的函数形式,称为参数机器学习算法。
-
选择一种目标函数的形式;
-
从训练数据中学习目标函数的系数。
把目标函数的形式假设为一条直线简化了学习过程。需要做的是估计这个直线等式的系数。
非参数机器学习算法
对目标函数的形式不作假设的算法称为非参数机器学习算法。通过不做假设,它们可以从训练数据中自由地学习任何函数形式。
比如KNN算法就是非参数模型。对于一个新的数据实例,KNN基于K个最相似的训练模式(已标记的实例)。这种方法除了模式可能更接近有一个相似的输出变量之外,不需要对目标函数的形式作出任何的假设。
非参数机器学习算法的一些常见例子包括KNN,决策树(比如CART和C4.5),SVM。
几乎所有决策树有关的模型调整方法,都围绕以下两个问题:
- 如何从数据表中找出最佳节点和最佳分枝?2. 如何让决策树停止生长,防止过拟合?
创建决策树
我们就使用便捷的sklearn的tree模块,比如使用DecisionTreeClassifier,三部曲,实例化一个DecisionTreeClassifier类(注意需要使用的参数),通过模型接口训练模型,通过模型接口提取需要的信息(predict, score…)。
1.实例化评估模型对象
1.1 Criterion
这个参数是用来决定不纯度的计算方法的,决策树需要找出最佳节点和最佳的分枝方法,而衡量这个“最佳”的指标叫做“不纯度”。 不纯度基于叶子节点来计算的,所以树中的每个节点都会有一个不纯度,并且子节点的不纯度一定是低于父节点的, 也就是说,在同一棵决策树上,叶子节点的不纯度一定是最低的。 对于Criterion参数,sklearn提供了两种选择: 1)输入”entropy“,使用信息熵(Entropy) 2)输入”gini“,使用基尼系数(Gini Impurity)。(不填默认基尼系数)
不纯度:决策树的每个叶子节点中都会包含一组数据,在这组数据中,如果有某一类标签占有较大的比例,我们就说叶子 节点“纯”,分枝分得好。某一类标签占的比例越大,叶子就越纯,不纯度就越低,分枝就越好。 如果没有哪一类标签的比例很大,各类标签都相对平均,则说叶子节点"不纯",分枝不好,不纯度高。
为了要将表格转化为一棵树,决策树需要找出最佳节点和最佳的分枝方法,对分类树来说,衡量这个“最佳”的指标 叫做“不纯度”。通常来说,不纯度越低,决策树对训练集的拟合越好。现在使用的决策树算法在分枝方法上的核心大多是围绕在对某个不纯度相关指标的最优化上。 不纯度基于节点来计算,树中的每个节点都会有一个不纯度,并且子节点的不纯度一定是低于父节点的,也就是 说,在同一棵决策树上,叶子节点的不纯度一定是最低的。
在实际使用中,信息熵和基尼系数的效果基本相同,而且你去研究它俩的数学计算式子后就会知道信息熵因为有个对数要计算,所以执行速度会慢些。
小技巧:Criterion通常就使用基尼系数。当数据维度很大,噪音很大时使用基尼系数,而维度低,数据比较清晰的时候,信息熵和基尼系数没区别。当决策树的拟合程度不够的时候,使用信息熵。或者两个都试试,不好换另外一个。
1.2 random_state
相信你在给某决策树模型打分时会发现,数据集没变,但模型得分每次都不一样,这时你给决策树模型加一个参数random_state=任意整数,就会一直长出同一棵树,让模型稳定下来。
random_state用来设置分枝中的随机模式的参数,默认None,在高维度时随机性会表现更明显,低维度的数据(比如鸢尾花数据集),随机性几乎不会显现。
1.3 splitter
splitter也是用来控制决策树中的随机选项的,有两种输入值,输入best,决策树在分枝时虽然随机,但是还是会优先选择更重要的特征进行分枝(重要性可以通过属性feature_importances_查看),输入random,决策树在分枝时会更加随机,树会因为含有更多的不必要信息而更深更大,并因这些不必要信息而降低对训练集的拟合。这也是防止过拟合的一种方式。当你预测到你的模型会过拟合,用这两个参数来帮助你降低树建成之后过拟合的可能性。当然,树一旦建成,我们依然是使用剪枝参数进行过拟合处理。
1.4 剪枝参数
在不加限制的情况下,一棵决策树会生长到衡量不纯度的指标最优,或者没有更多的特征可用为止。这样的决策树往往会过拟合,这就是说,它会在训练集上表现很好,在测试集上却表现糟糕。(比如你要考研,你平时的习题集都是全对,但你真正上考场,做出来分数并不乐观,此乃过拟合。)我们收集的样本数据不可能和整体的状况完全一致,因此当一棵决策树对训练数据有了过于优秀的解释性,它找出的规则必然包含了训练样本中的噪声,并使它对未知数据的拟合程度不足。
为了让决策树有更好的泛化性,我们要对决策树进行剪枝。剪枝策略对决策树的影响巨大,正确的剪枝策略是优化 决策树算法的核心。sklearn为我们提供了不同的剪枝策略:
max_depth
限制树的最大深度,超过设定深度的树枝全部剪掉 这是用得最广泛的剪枝参数,在高维度低样本量时非常有效。决策树多生长一层,对样本量的需求会增加一倍,所 以限制树深度能够有效地限制过拟合。在集成算法中也非常实用。实际使用时,建议从=3开始尝试,看看拟合的效 果再决定是否增加设定深度。
min_samples_leaf & min_samples_split
min_samples_leaf限定,一个节点在分枝后的每个子节点都必须包含至少min_samples_leaf个训练样本,否则分 枝就不会发生,或者,分枝会朝着满足每个子节点都包含min_samples_leaf个样本的方向去发生 一般搭配max_depth使用,在回归树中有神奇的效果,可以让模型变得更加平滑。这个参数的数量设置得太小会引 起过拟合,设置得太大就会阻止模型学习数据。一般来说,建议从=5开始使用。如果叶节点中含有的样本量变化很 大,建议输入浮点数作为样本量的百分比来使用。同时,这个参数可以保证每个叶子的最小尺寸,可以在回归问题 中避免低方差,过拟合的叶子节点出现。对于类别不多的分类问题,=1通常就是最佳选择。 min_samples_split限定,一个节点必须要包含至少min_samples_split个训练样本,这个节点才允许被分枝,否则 分枝就不会发生。
max_features & min_impurity_decrease 一般max_depth使用,用作树的”精修“ max_features限制分枝时考虑的特征个数,超过限制个数的特征都会被舍弃。和max_depth异曲同工, max_features是用来限制高维度数据的过拟合的剪枝参数,但其方法比较暴力,是直接限制可以使用的特征数量 而强行使决策树停下的参数,在不知道决策树中的各个特征的重要性的情况下,强行设定这个参数可能会导致模型 学习不足。如果希望通过降维的方式防止过拟合,建议使用PCA,ICA或者特征选择模块中的降维算法。 min_impurity_decrease限制信息增益的大小,信息增益小于设定数值的分枝不会发生。这是在0.19版本中更新的 功能,在0.19版本之前时使用min_impurity_split。