sklearn入门,决策树的实现
scikit-learn,又写作sklearn,是一个开源的基于python语言的机器学习工具包。它通过NumPy, SciPy和Matplotlib等python数值计算的库实现高效的算法应用,并且涵盖了几乎所有主流机器学习算法。
1 决策树
1.1决策树是如何工作的
决策树(Decision Tree)是一种非参数的有监督学习方法。它能够从一系列有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。 决策树算法很容易理解,使用各种数据,在解决各种问题时都有良好的表现,尤其是以树模型为核心的各种集成算法,在各个行业和领域都有广泛的应用。
决策树算法的本质上是一种图结构,只需要问一系列问题就可以对数据进行分类了。比如说,下面的这组数据,这是一系列已知物种及所属类别的数据:
我们现在的目标是,将动物们分为哺乳类和非哺乳类。根据已经收集到的数据,决策树算法为我们算出了下面的这颗决策树:
假如我们现在发现了一种新物种Python,它是冷血动物,体表带鳞片,并且不是胎生,我们就可以通过这棵决策树来判断它的所属类别。
可以看出,在这个决策过程中,我们一直在对记录的特征进行提问。最初的问题所在的地方叫做根节点,在得到结论前的每一个问题都是中间节点,而得到的每一个结论(动物的类别)都叫做叶子节点。
关键概念:节点 |
根节点:没有进边,有出边。包含最初的,针对特征的提问。 |
中间节点:既有进边也有出边,进边只有一条,出边可以有很多条。都是针对特征的提问。 |
叶子节点:有进边,没有出边,每个叶子节点都是一个类别标签。 |
子节点和父节点:在两个相连的节点中,更接近根节点的是父节点,另一个是子节点。 |
决策树算法的核心是要解决两个问题:
1) 如何从数据中找出最佳节点和最佳分枝?
2) 如何让决策树停止生长,防止过拟合?
几乎所有的决策树有关的模型调整方法,都围绕这两个问题展开,这两个问题背后的 原理十分复杂
决策树原理1.2 sklearn中的决策树
- 模块 sklearn.tree
sklearn 中决策树的类都在
tree
这个模块之下。这个模块总共包括五个类:tree.DecisionTreeClassifier | 分类树 |
tree.DecisionTreeegressor | 回归树 |
tree.ExtraTreeRegressor | 将生成的决策树导出为DOT格式,画图专用 |
tree.ExtraTreeClassifier | 高随机版本的分类树 |
tree.export_graphviiz | 高随机版本的回归树 |
- sklearn建模的基本流程
在这个流程下,分类树对应的代码是:
from sklearn import tree # 导入需要的模块 clf = tree.DecisionTreeClassifier() # 实例化 clf = clf.fit(X_train,y_train) # 用训练集数据训练模型 result = clf.score(X_test,y_test) # 导入测试集,从接口中调用需要的信息
2 DecisionTreeClassifier与红酒数据集
分类树所有的参数:
class
sklearn.tree.DecisionTreeClassifier
(criterion='gini', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, class_weight=None, presort=False)2.1 重要参数
2.1.1 criterion
为了将表格转化为一棵树,决策树需要找出最佳节点和最佳的分枝方法,对分类树来说,衡量这个“最佳”的指标叫做吧
“不纯度”
。通常来说,不纯度越低,决策树对训练集的拟合越好。现在使用的决策树算法在分枝发方法上的核心大多是围绕在对某个不纯度相关的指标的最优化上。不纯度基于节点来计算,树中的每个节点都会有一个不纯度,并且子节点的不纯度一定是低于父节点的,也就是说,在同一颗决策树上,叶子节点的不纯度一定是最低的。
Criterion这个参数正是用来决定不纯度的计算方法的。sklearn提供了两种选择:
1) 输入“entropy”,使用信息熵(Entropy)
2) 输入“gini”使用基尼系数(Gini Impurity)
其中t代表给定的节点, i 代表标签的任意分类, 代表标签分类i 在节点t上所占的比例. 注意, 当使用信息熵时, sklearn实际计算的是基于信息熵的信息增益(information Gain),即父节点的信息熵和子节点的信息熵之差.
比起基尼系数, 信息熵对不纯度更加敏感, 对不纯度的惩罚最强. 但是在实际使用中,信息熵和基尼系数的效果基本相同. 信息熵的计算比基尼系数缓慢一些,因为基尼系数系数的计算不涉及对数.另外,因为信息熵对不纯度敏感, 所以信息熵作为指标时, 决策树的生长会更加"精细", 因此,对于高维数据或者噪音很多的数据,信息熵很容易过拟合,基尼系数在这种i情况下效果往往比较好. 当然,这不是绝对的.
参数 | Criterion |
如何影响模型? | 确定不纯度的计算方法, 帮忙找出最佳节点和最佳分支, 不纯度越低 , 决策树对训练集的拟合越好 |
可能的输入有哪些? | 不填 ,默认基尼系数,填写gini使用基尼系数,填写entropy使用信息增益 |
增氧选取参数? | 通常就使用基尼系数
数据维度很大,噪音很大时使用基尼系数
维度低,数据比较清晰的时候,信息熵和基尼系数没区别
当决策树的拟合程度不够的时候, 使用信息熵
两个都试试,不好就换另外一个 |
在这里,决策树的基本流程, 其实可以简单概括如下:
直到没有更多的特征可用, 或整体的不纯度指标已经最优, 决策树就会停止生长.
- 建立一棵树
- 导入需要的算法库和模块
from sklearn import tree from sklearn.datasets import load_wine from sklaern.model_selection import train_test_split
- 探索数据
wine = load_wine() wine.data.shape wine.target # 如果wine是一张表, 应该长这样 import pandas as pd pd.concat([pd.DataFrame(wine.data), pd.DataFrame(wine.target)], axis=1) wine.feature_names wine.target_names
- 分训练集和测试集
Xtrain,Xtest,Ytrain,Ytest = train_test_split(wine.data, wine.target, test_size = 0.3) Xtrain.shape Xtest.shape
- 建立模型
clf = tree.DecisionTreeClassifier(criterion="entropy") clf = clf.fit(Xtrain,Ytrain) score = clf.score(Xtest,Ytest) # 返回预测的准确度 score # 每一次的score是不一样的
- 画出一棵树
feature_name = ['酒精','苹果酸','灰','灰的碱性','镁','总酚','类黄酮','非黄烷类酚类','花青素','颜色强度','色调','od280/od315稀释葡萄酒','脯氨酸'] # 导入决策树绘图包 import graphviz dot_data = tree.export_graphviz(clf,features_name = feature_name,class_names = ["琴酒",""雪莉","贝尔摩德"],filled = True,rounded = True) # 参数 filled 是否填充颜色,不纯度越低,颜色越深 # 参数 rounded 是否圆角矩形 graph = graphviz.Source(dot_date) graph
- 探索决策树
clf.feature_importances_ [*zip(feature_name,clf.feature_importances_)]
我们已经在只了解一个参数的情况下, 建立了一棵完整的决策树. 但是回到步骤4 建立模型, score会在某个值附近波动, 引起步骤5中画出来的每一棵树都不一样. 它为什么会不稳定呢? 如果使用其他数据集,它还会不稳定吗?
我们之前提到过, 无论决策树模型如何进化, 在分枝上的本质都还是追求某个不纯度相关的指标的优化, 而正如我们提到的, 不纯度是基于节点来计算的, 也就是决策树在建树的时候, 是靠优化节点来追求一颗优化的树, 但最优的节点能够保证最优的树吗? 集成算法被用来解决这个问题: sklearn表示, 既然一棵树不能保证最优,那就建更多的不同的树, 然后从中取最好的. 怎样从一组数据集中建不同的树?在每次分枝时, 不使用全部特征, 而是随机选择一部分特征, 从中选择不纯度相关指标最优的作为分枝用的节点. 这样. 每次生成的树也就不同了.
clf = tree.DecisionTreeClassifier(criterrion="entropy", random_state=30) clf = clf.fit(Xtrain, Ytrain) score = clf.score(Xtest, Ytest) # 返回预测的准确度 score
2.1.2 random_state & splitter
random_state 用来设置分枝中的随机模式的参数, 默认None, 在高维度时随机性会表现更明显, 低维度的数据(比如鸢尾花数据集), 随机性几乎不会显现. 输入任意整数, 会一直长出同一棵树, 让模型稳定下来.
splitter 也是用来控制决策树中的随机选项的, 有两种输入值, 输入"best", 决策树在分枝时虽然随机, 但是还是会优先选择重要的决策进行分枝(重要性可以通过属性feature_importances_查看), 输入"random",决策树在分枝时会更加随机, 树会因为含有更多的不必要信息而更深更大, 并因这些不必要而降低对训练集的拟合. 这也是防止过拟合的一种方式. 当你预测你的模型会过拟合, 用这两个参数来帮助你降低树建成之后过拟合的可能性. 当然, 树一旦建成, 我们依然是使用剪枝参数来防止过拟合.
clf = tree.DecisionTreeClassifier(criterion="entropy",random_state=30,splitter="random") clf = clf.fit(Xtrain, Ytrain) socre = clf.score(Xtest, Ytest) score import graphviz dot_data = tree.export_graphviz(clf, feature_names = feature_name, class_names = ["琴酒","雪莉","贝尔摩德"], filled = True, rounded = True) graph = graphviz.Source(dot_data) graph
2.1.3 剪枝参数
在不加限制的情况下, 一棵决策树会生长到衡量不纯度的指标最优, 或者没有更多的特征可用为止. 这样的决策树往往会过拟合, 这就是说, 它会在训练集上表现很好, 在测试集上却表现很糟糕. 我们收集的样本数据不可能和整体的状况完全一致, 因此当一颗决策树对训练数据有了过于优秀的解释性, 它找出的规则必然包含了训练样本的噪声, 并使它对未知数据的拟合程度不足.
# 我们的树对训练集的拟合程度如何? score_train = clf.score(Xtrain, Ytrain) score_train
为了让决策树有更好的广泛性, 我们要对决策树进行剪枝. 剪枝策略对决策树的影响巨大, 正确的剪枝策略是优化决策树算法的核心. sklearn为我们提供了不同的剪枝策略:
- max_depth
限制决策树的最大深度, 超过设定深度的树枝全部剪掉
这是用得最广泛得剪枝参数, 在高维度低样本量时非常有效. 决策树多生长一层, 对样本量得需求会增加一倍, 所以限制树深度能够有效地限制过拟合. 在集成算法中也非常实用. 实际使用时, 建议从 =3 开始尝试, 看看拟合的效果再决定是否增加设定深度.
- min_sample_leaf & min_samples_split
min_samplesleaf限定,一个节点在分枝后的每个子节点都必须包含至少min_samples_leaf个训练样本, 否则分枝就不会发生, 或者, 分枝会朝着满足每个子节点都包含min_samples_leaf个样本的方向去发生
一般搭配max_depth使用, 在回归树中有神奇的效果, 可以让模型变得更加平滑. 这个参数的数量设置得太小会引起过拟合, 设置得太大就会组织模型学习数据. 一般来说, 建议从 =5 开始使用. 如果叶节点中含有得样本量变化很大, 建议输入浮点数作为样本量的百分比来使用. 同时, 这个参数可以保证每个叶子得最小尺寸, 可以在回归问题中避免低方差, 过拟合的叶子节点出现. 对于类别不多的分类问题, =1 通常就是最佳选择.
min_samples_split 限定, 一个节点必须要包含至少min_samples_split个训练个样本, 这个节点允许被分枝, 否则分枝就不会发生.
clf = tree.DecisionTreeClassifier(criterion="entropy", random_state=30,splitter="random",max_depth=3, min_samples_leaf=10,min_samples_split=10) clf = clf.fit(Xtrain, Ytrain) dot_data = tree.export_graphviz(clf, feature_names=feature_name,clss_names=["琴酒","雪莉","贝尔摩德"],filled=True,rounded=True) graph=graphviz.Source(dot_data) graph clf.score(Xtrain, Ytrain) clf.score(Xtest, Ytest)
- max_features & min_impurity_decrease
一般max_depth使用, 用作树的"精修"
max_features限制分枝时考虑的特征个数, 超过限制个数的特征都会被舍弃. 和max_depth异曲同工,max_features是用来限制高纬度的过拟合的剪枝参数, 但其方法比较暴力,是直接限制可以使用的特征数量而强行使