机器学习算法系列(3)--决策树(decision-tree)

小灰灰 2022-05-17 10:41 296阅读 0赞

本文转载自:
decision tree|endymecy

一、决策树理论

1.1 什么是决策树

所谓决策树,顾名思义,是一种树,一种依托于策略抉择而建立起来的树。机器学习中,决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。 树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,从根节点到叶节点所经历的路径对应一个判定测试序列。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。

1.2 决策树学习流程

决策树学习的主要目的是为了产生一棵泛化能力强的决策树。其基本流程遵循简单而直接的“分而治之”的策略。它的流程实现如下所示:

  1. 输入:训练集 D={(x_1,y_1),(x_2,y_2),...,(x_m,y_m)};
  2. 属性集 A={a_1,a_2,...,a_d}
  3. 过程:函数GenerateTree(D,A)
  4. 1: 生成节点node
  5. 2: if D中样本全属于同一类别C then
  6. 3: node标记为C类叶节点,并返回
  7. 4: end if
  8. 5: if A为空 OR D中样本在A上取值相同 then
  9. 6: node标记为叶节点,其类别标记为D中样本数量最多的类,并返回
  10. 7: end if
  11. 8: A中选择最优划分属性 a*; //每个属性包含若干取值,这里假设有v个取值
  12. 9: for a* 的每个值a*_v do
  13. 10: node生成一个分支,令D_v表示D中在a*上取值为a*_v的样本子集;
  14. 11: if D_v 为空 then
  15. 12: 将分支节点标记为叶节点,其类别标记为D中样本最多的类,并返回
  16. 13: else
  17. 14: GenerateTree(D_v,A\{a*})为分支节点
  18. 15: end if
  19. 16: end for

决策树的生成是一个递归的过程。有三种情况会导致递归的返回:
(1) 当前节点包含的样本全属于同一个类别。
(2) 当前属性值为空,或者所有样本在所有属性上取相同的值。
(3) 当前节点包含的样本集合为空。

  在第(2)中情形下,我们把当前节点标记为叶节点,并将其类别设定为该节点所含样本最多的类别;在第(3)中情形下,同样把当前节点标记为叶节点, 但是将其类别设定为其父节点所含样本最多的类别。这两种处理实质不同,前者利用当前节点的后验分布,后者则把父节点的样本分布作为当前节点的先验分布。

1.3 决策树的构造

构造决策树的关键步骤是分裂属性(即确定属性的不同取值,对应上面流程中的a_v)。所谓分裂属性就是在某个节点处按照某一属性的不同划分构造不同的分支,其目标是让各个分裂子集尽可能地“纯”。 尽可能“纯”就是尽量让一个分裂子集中待分类项属于同一类别。分裂属性分为三种不同的情况:

  • 1、属性是离散值且不要求生成二叉决策树。此时用属性的每一个划分作为一个分支。
  • 2、属性是离散值且要求生成二叉决策树。此时使用属性划分的一个子集进行测试,按照“属于此子集”和“不属于此子集”分成两个分支。
  • 3、属性是连续值。此时确定一个值作为分裂点split_point,按照>split_point<=split_point生成两个分支。

1.4 划分选择

在决策树算法中,如何选择最优划分属性是最关键的一步。一般而言,随着划分过程的不断进行,我们希望决策树的分支节点所包含的样本尽可能属于同一类别,即节点的“纯度(purity)”越来越高。 有几种度量样本集合纯度的指标。在MLlib中,信息熵和基尼指数用于决策树分类,方差用于决策树回归。

1.4.1 信息熵

信息熵是度量样本集合纯度最常用的一种指标,假设当前样本集合D中第k类样本所占的比例为p_k,则D的信息熵定义为:

这里写图片描述

Ent(D)的值越小,则D的纯度越高。

1.4.2 基尼系数

采用和上式相同的符号,基尼系数可以用来度量数据集D的纯度。

这里写图片描述

直观来说,Gini(D)反映了从数据集D中随机取样两个样本,其类别标记不一致的概率。因此,Gini(D)越小,则数据集D的纯度越高。

1.4.3 方差

MLlib中使用方差来度量纯度。如下所示:

这里写图片描述

1.4.4 信息增益

假设切分大小为N的数据集D为两个数据集D_leftD_right,那么信息增益可以表示为如下的形式。

这里写图片描述

一般情况下,信息增益越大,则意味着使用属性a来进行划分所获得的纯度提升越大。因此我们可以用信息增益来进行决策树的划分属性选择。即流程中的第8步。

1.5 决策树的优缺点

决策树的优点:

  • 1 决策树易于理解和解释;
  • 2 能够同时处理数据型和类别型属性;
  • 3 决策树是一个白盒模型,给定一个观察模型,很容易推出相应的逻辑表达式;
  • 4 在相对较短的时间内能够对大型数据作出效果良好的结果;
  • 5 比较适合处理有缺失属性值的样本。

决策树的缺点:

  • 1 对那些各类别数据量不一致的数据,在决策树种,信息增益的结果偏向那些具有更多数值的特征;
  • 2 容易过拟合;
  • 3 忽略了数据集中属性之间的相关性。

二、实例与源码分析

2.1 实例

下面的例子用于分类。

  1. import org.apache.spark.mllib.tree.DecisionTree
  2. import org.apache.spark.mllib.tree.model.DecisionTreeModel
  3. import org.apache.spark.mllib.util.MLUtils
  4. // Load and parse the data file.
  5. val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_libsvm_data.txt")
  6. // Split the data into training and test sets (30% held out for testing)
  7. val splits = data.randomSplit(Array(0.7, 0.3))
  8. val (trainingData, testData) = (splits(0), splits(1))
  9. // Train a DecisionTree model.
  10. // Empty categoricalFeaturesInfo indicates all features are continuous.
  11. val numClasses = 2
  12. val categoricalFeaturesInfo = Map[Int, Int]()
  13. val impurity = "gini"
  14. val maxDepth = 5
  15. val maxBins = 32
  16. val model = DecisionTree.trainClassifier(trainingData, numClasses, categoricalFeaturesInfo,
  17. impurity, maxDepth, maxBins)
  18. // Evaluate model on test instances and compute test error
  19. val labelAndPreds = testData.map { point =>
  20. val prediction = model.predict(point.features)
  21. (point.label, prediction)
  22. }
  23. val testErr = labelAndPreds.filter(r => r._1 != r._2).count().toDouble / testData.count()
  24. println("Test Error = " + testErr)
  25. println("Learned classification tree model:\n" + model.toDebugString)

下面的例子用于回归。

  1. import org.apache.spark.mllib.tree.DecisionTree
  2. import org.apache.spark.mllib.tree.model.DecisionTreeModel
  3. import org.apache.spark.mllib.util.MLUtils
  4. // Load and parse the data file.
  5. val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_libsvm_data.txt")
  6. // Split the data into training and test sets (30% held out for testing)
  7. val splits = data.randomSplit(Array(0.7, 0.3))
  8. val (trainingData, testData) = (splits(0), splits(1))
  9. // Train a DecisionTree model.
  10. // Empty categoricalFeaturesInfo indicates all features are continuous.
  11. val categoricalFeaturesInfo = Map[Int, Int]()
  12. val impurity = "variance"
  13. val maxDepth = 5
  14. val maxBins = 32
  15. val model = DecisionTree.trainRegressor(trainingData, categoricalFeaturesInfo, impurity,
  16. maxDepth, maxBins)
  17. // Evaluate model on test instances and compute test error
  18. val labelsAndPredictions = testData.map { point =>
  19. val prediction = model.predict(point.features)
  20. (point.label, prediction)
  21. }
  22. val testMSE = labelsAndPredictions.map{ case (v, p) => math.pow(v - p, 2) }.mean()
  23. println("Test Mean Squared Error = " + testMSE)
  24. println("Learned regression tree model:\n" + model.toDebugString)

2.2 源码分析

MLlib中,决策树的实现和随机森林的实现是在一起的。随机森林实现中,当树的个数为1时,它的实现即为决策树的实现。

  1. def run(input: RDD[LabeledPoint]): DecisionTreeModel = {
  2. //树个数为1
  3. val rf = new RandomForest(strategy, numTrees = 1, featureSubsetStrategy = "all", seed = 0)
  4. val rfModel = rf.run(input)
  5. rfModel.trees(0)
  6. }

这里的strategyStrategy的实例,它包含如下信息:

  1. /** * Stores all the configuration options for tree construction * @param algo Learning goal. Supported: * [[org.apache.spark.mllib.tree.configuration.Algo.Classification]], * [[org.apache.spark.mllib.tree.configuration.Algo.Regression]] * @param impurity Criterion used for information gain calculation. * Supported for Classification: [[org.apache.spark.mllib.tree.impurity.Gini]], * [[org.apache.spark.mllib.tree.impurity.Entropy]]. * Supported for Regression: [[org.apache.spark.mllib.tree.impurity.Variance]]. * @param maxDepth Maximum depth of the tree. * E.g., depth 0 means 1 leaf node; depth 1 means 1 internal node + 2 leaf nodes. * @param numClasses Number of classes for classification. * (Ignored for regression.) * Default value is 2 (binary classification). * @param maxBins Maximum number of bins used for discretizing continuous features and * for choosing how to split on features at each node. * More bins give higher granularity. * @param quantileCalculationStrategy Algorithm for calculating quantiles. Supported: * [[org.apache.spark.mllib.tree.configuration.QuantileStrategy.Sort]] * @param categoricalFeaturesInfo A map storing information about the categorical variables and the * number of discrete values they take. For example, an entry (n -> * k) implies the feature n is categorical with k categories 0, * 1, 2, ... , k-1. It's important to note that features are * zero-indexed. * @param minInstancesPerNode Minimum number of instances each child must have after split. * Default value is 1. If a split cause left or right child * to have less than minInstancesPerNode, * this split will not be considered as a valid split. * @param minInfoGain Minimum information gain a split must get. Default value is 0.0. * If a split has less information gain than minInfoGain, * this split will not be considered as a valid split. * @param maxMemoryInMB Maximum memory in MB allocated to histogram aggregation. Default value is * 256 MB. * @param subsamplingRate Fraction of the training data used for learning decision tree. * @param useNodeIdCache If this is true, instead of passing trees to executors, the algorithm will * maintain a separate RDD of node Id cache for each row. * @param checkpointInterval How often to checkpoint when the node Id cache gets updated. * E.g. 10 means that the cache will get checkpointed every 10 updates. If * the checkpoint directory is not set in * [[org.apache.spark.SparkContext]], this setting is ignored. */
  2. class Strategy @Since("1.3.0") (
  3. @Since("1.0.0") @BeanProperty var algo: Algo,//选择的算法,有分类和回归两种选择
  4. @Since("1.0.0") @BeanProperty var impurity: Impurity,//纯度有熵、基尼系数、方差三种选择
  5. @Since("1.0.0") @BeanProperty var maxDepth: Int,//树的最大深度
  6. @Since("1.2.0") @BeanProperty var numClasses: Int = 2,//分类数
  7. @Since("1.0.0") @BeanProperty var maxBins: Int = 32,//最大子树个数
  8. @Since("1.0.0") @BeanProperty var quantileCalculationStrategy: QuantileStrategy = Sort,
  9. //保存类别变量以及相应的离散值。一个entry (n ->k) 表示特征n属于k个类别,分别是0,1,...,k-1
  10. @Since("1.0.0") @BeanProperty var categoricalFeaturesInfo: Map[Int, Int] = Map[Int, Int](),
  11. @Since("1.2.0") @BeanProperty var minInstancesPerNode: Int = 1,
  12. @Since("1.2.0") @BeanProperty var minInfoGain: Double = 0.0,
  13. @Since("1.0.0") @BeanProperty var maxMemoryInMB: Int = 256,
  14. @Since("1.2.0") @BeanProperty var subsamplingRate: Double = 1,
  15. @Since("1.2.0") @BeanProperty var useNodeIdCache: Boolean = false,
  16. @Since("1.2.0") @BeanProperty var checkpointInterval: Int = 10) extends Serializable

决策树的实现我们在随机森林专题介绍。这里我们只需要知道,当随机森林的树个数为1时,它即为决策树, 并且此时,树的训练所用的特征是全部特征,而不是随机选择的部分特征。即featureSubsetStrategy = “all”。

本文转载自:
decision tree|endymecy

发表评论

表情:
评论列表 (有 0 条评论,296人围观)

还没有评论,来说两句吧...

相关阅读

    相关 机器学习决策算法

    1-1 基本流程 决策树是一个有监督分类与回归算法。 决策树的生成只考虑局部最优,相对的,决策树剪枝则考虑全局最优。 一、概念: 决策树:是一种树形结构,其中每个