决策树(Decision Tree)是机器学习中一种常见的算法,它的思想非常朴素,就像我们平时利用选择做决策的过程。决策树是一种基本的分类与回归方法,当被用于分类时叫做分类树,被用于回归时叫做回归树。
一、决策树结构:
顾名思义,决策树在逻辑上表现为树的形式,包含有节点和向边。
一般情况下,一棵决策树包含一个根节点、若干个内部节点和若干个叶结点。
根节点:包含样本全集,从根节点到每个叶结点的路径对应了一个判定测试序列。
内部节点:表示一个特征和属性。每个内部节点都是一个判断条件,并且包含数据集中,满足从根节点到该节点所有条件的数据的集合。根据内部节点的属性测试结果,内部节点对应的数据的集合别分到两个或多个子节点中。
叶节点:表示一个类,对应于决策结果。叶节点为最终的类别,如果该数据被包含在该叶节点,则属于该类别。
如下图中,其中圆和方框分别表示内部节点和叶结点。
简而言之,决策树是一个利用树的模型进行决策的预测模型,表现出的是对象属性与对象值之间的一种映射关系,简单明了,非常容易理解。
我们决策树学习的目的是为了产生一棵泛化能力强,也就是能够高效、有效处理未见示例的决策树。
二、决策树的优缺点:
1.决策树的最大优点是,对背景知识要求不高,计算复杂度也不是很高,可以自学习。
2.属于有监督学习
3.对中间缺失值不敏感
4. 解释性强,甚至超过线性回归
5.相比传统的回归和分类方法,决策树是更接近人的决策模式
6. 能够用图形来表示,即使不是专业人士也可以轻松理解
7.可以在不创建哑变量的情况下,直接处理定性的预测变量,
8.决策树的预测准确性相比一般比回归和分类方法比较弱,但能够通过用集成学习方法组合大量决策树,这样可以显著提升树的预测效果
三、决策树的生成
决策树的生成是一个自顶向下的递归过程,其基本思想是以信息熵为度量构造一棵熵值下降最快的树,到叶子结点处的熵值为零。
在决策树算法中有三种情形导致递归返回:
1)当前节点包含的样本属于同一类,不需要划分;
2)当前属性集为空,无法进行划分。这种情况下,需要将当前节点标记成叶节点,并将其类别设定为所含样本最多的类别;利用当前节点的后验分布;(就是:有样本无属性进行划分)
3)当前结点包含的样本集合为空,不能进项划分。此时,要将当前节点标记为叶节点,将其类别设定为其父结点所含样本最多的类别;利用父结点的先验分布(就是:无样本有属性)
客服微信:(id1234562011)本文链接:https://www.changchenghao.cn/n/507278.html