博客
关于我
决策树(二)—— ID3和C4.5
阅读量:335 次
发布时间:2019-03-04

本文共 1259 字,大约阅读时间需要 4 分钟。

ID3和C4.5

决策树

看这张图就明白了。

决策树

简单来说就是根据特征构造一棵树,叶子结点代表了分类的结果,叶子结点到根节点的路径代表了不同特征的组合。

也就是说我们认为不同特征的组合造成了分类结果的不同。

ID3

那我们怎么构造这棵树呢?把哪些特征放在上面哪些放在下面呢?

上一篇博客提到了信息熵的相关知识。

ID3算法就是根据信息增益来排序的。

我们自然是把最重要的信息放在上面,这里的重要意味着有了这个信息,结果的不确定性就会小很多。

信息确定前后信息熵的变化称为信息增益,某特征的信息增益越大,也就说明这一特征与结果的相关性越高,对于分类的重要性也就越高了。

C4.5

不同于ID3,C4.5使用信息增益比来对特征进行排序。在上上一篇博客中也有对于信息增益比的介绍,这里不做赘述。

简单来说C4.5避免了特征多叉带来的信息增益过大问题,使用某特征单位熵下的信息增益来衡量特征的优先级。

sklearn的实现

sklearn默认使用CART算法,我们要用熵来算的话,把criterion='entropy’即可。这里的entropy代表用熵来算。

import csvfrom sklearn import treefrom sklearn import preprocessingfrom sklearn.feature_extraction import DictVectorizer# 读数据Dtree = open('../data/AllElectronics.csv','r')reader = csv.reader(Dtree)headers = reader.__next__()featureList = []labelList = []for row in reader:    labelList.append(row[-1])    rowDic = {   }    for i in range(1,len(row)-1):        rowDic[headers[i]] = row[i]    featureList.append(rowDic)# 把数据转化成01表示vec = DictVectorizer()x_data = vec.fit_transform(featureList).toarray()# print(vec.get_feature_names())# 将标签转化为01表示lb = preprocessing.LabelBinarizer()y_data = lb.fit_transform(labelList)# 创建决策树模型model = tree.DecisionTreeClassifier(criterion='entropy')model.fit(x_data,y_data)prediction = model.predict(x_data)print("预测值:",prediction)print("实际值:",y_data.T)

result

转载地址:http://drhe.baihongyu.com/

你可能感兴趣的文章
找密码
查看>>
Python初级知识总结
查看>>
python|画图1(蛇)
查看>>
婚姻稳定匹配问题
查看>>
C++数据类型,运算符,注释
查看>>
C++语句,函数,标准输入输出
查看>>
平均年龄,,数字求和
查看>>
简单的字符串操作(注意要点)
查看>>
统计字符数
查看>>
C与C++区别
查看>>
JS 数组的 every()、some() 、filter()、findIndex() 、find()、map()方法
查看>>
原生 JS 封装的一些方法 【更新中...】
查看>>
Vue Element UI Upload 上传多张图片
查看>>
JS数据类型的判断
查看>>
Vue面试题总结
查看>>
实现一个简易Vue(三)Compiler
查看>>
仿小米商城(上)
查看>>
仿小米商城(下)
查看>>
【数据库实验一】基础操作
查看>>
第七章作业
查看>>