本文共 1259 字,大约阅读时间需要 4 分钟。
看这张图就明白了。
简单来说就是根据特征构造一棵树,叶子结点代表了分类的结果,叶子结点到根节点的路径代表了不同特征的组合。
也就是说我们认为不同特征的组合造成了分类结果的不同。
那我们怎么构造这棵树呢?把哪些特征放在上面哪些放在下面呢?
上一篇博客提到了信息熵的相关知识。
ID3算法就是根据信息增益来排序的。
我们自然是把最重要的信息放在上面,这里的重要意味着有了这个信息,结果的不确定性就会小很多。
信息确定前后信息熵的变化称为信息增益,某特征的信息增益越大,也就说明这一特征与结果的相关性越高,对于分类的重要性也就越高了。
不同于ID3,C4.5使用信息增益比来对特征进行排序。在上上一篇博客中也有对于信息增益比的介绍,这里不做赘述。
简单来说C4.5避免了特征多叉带来的信息增益过大问题,使用某特征单位熵下的信息增益来衡量特征的优先级。
sklearn默认使用CART算法,我们要用熵来算的话,把criterion='entropy’即可。这里的entropy代表用熵来算。
import csvfrom sklearn import treefrom sklearn import preprocessingfrom sklearn.feature_extraction import DictVectorizer# 读数据Dtree = open('../data/AllElectronics.csv','r')reader = csv.reader(Dtree)headers = reader.__next__()featureList = []labelList = []for row in reader: labelList.append(row[-1]) rowDic = { } for i in range(1,len(row)-1): rowDic[headers[i]] = row[i] featureList.append(rowDic)# 把数据转化成01表示vec = DictVectorizer()x_data = vec.fit_transform(featureList).toarray()# print(vec.get_feature_names())# 将标签转化为01表示lb = preprocessing.LabelBinarizer()y_data = lb.fit_transform(labelList)# 创建决策树模型model = tree.DecisionTreeClassifier(criterion='entropy')model.fit(x_data,y_data)prediction = model.predict(x_data)print("预测值:",prediction)print("实际值:",y_data.T)
转载地址:http://drhe.baihongyu.com/