• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

朴素贝叶斯算法

武飞扬头像
米卡粒
帮助1

3.4.1什么是朴素贝叶斯算法

朴素贝叶斯方法是在 贝叶斯 算法的基础上进行了相应的简化,即假定给定目标值时属性之间相互条件独立。. 也就是说没有哪个属性变量对于决策结果来说占有着较大的比重,也没有哪个属性变量对于决策结果占有着较小的比重。. 虽然这个简化方式在一定程度上降低了贝叶斯分类算法的分类效果,但是在实际的应用场景中,极大地简化了贝叶斯方法的复杂性 

3.4.2 概率基础

1 概率定义

3.4.3 联合概率 条件概率与相互独立

联合概率 包含多个条件,且所有条件同时成立的概率

p(a|b) = p(a)p(b) <==> 事件a和事件b相互独立

朴素:假设特征之间相互独立

优点:对确实数据不太敏感,算法比较简单,常用与对文本进行分类,分类准确度高,速度快

缺点:由于使用了样本属性独立性的假设,所以如果特征属性有关联时效果不佳 

  1.  
    def nb_news():
  2.  
    """
  3.  
    用朴素贝叶斯算法对新闻进行分类
  4.  
    :return:
  5.  
    """
  6.  
    # 1)获取数据集
  7.  
    news = fetch_20newsgroups(subset="all")
  8.  
     
  9.  
    # 2)划分数据集
  10.  
    x_train, x_test, y_train, y_test = train_test_split(news.data, news.target)
  11.  
     
  12.  
    # 3)特征工程:文本特征抽取-tfidf
  13.  
    transfer = TfidfVectorizer()
  14.  
    x_train = transfer.fit_transform(x_train)
  15.  
    x_test = transfer.transform(x_test)
  16.  
     
  17.  
    # 4)朴素贝叶斯算法预估器流程
  18.  
    estimator = MultinomialNB()
  19.  
    estimator.fit(x_train, y_train)
  20.  
     
  21.  
    # 5)模型评估
  22.  
    # 方法1 直接比对真实值和预测值
  23.  
    y_predict = estimator.predict(x_test)
  24.  
    print("y_predict:\n", y_predict)
  25.  
    print("直接比对真实值和预测值:\n", y_test == y_predict)
  26.  
     
  27.  
    # 方法2 计算准确率
  28.  
    score = estimator.score(x_test, y_test)
  29.  
    print("准确率为:\n", score)
  30.  
     
  31.  
    return None
学新通

 3.5 决策树

3.5.1认识决策树

如何高效的进行决策:特征的先后顺序

3.5.2 决策树分类原理详解

信息论基础

1)信息

消除随机不定性的东西

2)信息的衡量

信息量 信息熵

3.5.3决策树的API

class sklearn.tree.DecisionTreeClassifier='gini'

max_depth=None,random_state=None

决策树分类器

criterion:默认是‘gini’系数,也可以选择增益的熵‘entropy’

max_depth:树的深度

random_state:随机数种子

  1.  
    def decision_iris():
  2.  
    """
  3.  
    用决策树对鸢尾花进行分类
  4.  
    :return:
  5.  
    """
  6.  
    # 1)获取数据集
  7.  
    iris = load_iris()
  8.  
     
  9.  
    # 2)划分数据集
  10.  
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)
  11.  
     
  12.  
    # 3)决策树预估器
  13.  
    estimator = DecisionTreeClassifier(criterion="entropy")
  14.  
    estimator.fit(x_train, y_train)
  15.  
     
  16.  
    # 4)模型评估
  17.  
    # 方法1 直接比对真实值和预测值
  18.  
    y_predict = estimator.predict(x_test)
  19.  
    print("y_predict:\n", y_predict)
  20.  
    print("直接比对真实值和预测值:\n", y_test == y_predict)
  21.  
     
  22.  
    # 方法2 计算准确率
  23.  
    score = estimator.score(x_test, y_test)
  24.  
    print("准确率为:\n", score)
  25.  
     
  26.  
    return None
学新通

学新通

  1.  
    def decision_iris():
  2.  
    """
  3.  
    用决策树对鸢尾花进行分类
  4.  
    :return:
  5.  
    """
  6.  
    # 1)获取数据集
  7.  
    iris = load_iris()
  8.  
     
  9.  
    # 2)划分数据集
  10.  
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)
  11.  
     
  12.  
    # 3)决策树预估器
  13.  
    estimator = DecisionTreeClassifier(criterion="entropy")
  14.  
    estimator.fit(x_train, y_train)
  15.  
     
  16.  
    # 4)模型评估
  17.  
    # 方法1 直接比对真实值和预测值
  18.  
    y_predict = estimator.predict(x_test)
  19.  
    print("y_predict:\n", y_predict)
  20.  
    print("直接比对真实值和预测值:\n", y_test == y_predict)
  21.  
     
  22.  
    # 方法2 计算准确率
  23.  
    score = estimator.score(x_test, y_test)
  24.  
    print("准确率为:\n", score)
  25.  
     
  26.  
    # 可视化决策树
  27.  
    export_graphviz(estimator, out_file="iris_tree.dot", feature_names=iris.feature_names)
  28.  
     
  29.  
    return None
学新通

学新通 

 决策树总结:

优点:简单的理解和解释,树木可视化

缺点:决策树学习者可以创建不能很好的推广数据过于复杂的数,这被称为过拟合

改进:减枝cart算法

随机森林

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhggcefe
系列文章
更多 icon
同类精品
更多 icon
继续加载