机器学习(四十七):任何机器学习模型的可解释性(可视化篇)
创始人
2024-03-05 11:23:48

机器学习模型经常被称为“黑匣子”。他们产生高度准确的预测。然而,我们常常无法解释或理解哪种信号模型最依赖于做出决策。

理解和评估模型的一种方法是使用准确性等指标,另一种方法是使用模型的可解释性。建立一个可以做出高质量预测但又能够解释此类预测的 ML 模型是数据科学中的一项基本任务。

文章目录

    • 可解释性
    • 什么是全局可解释性?
    • 什么是局部可解释性?
    • Python 实践
      • 训练一个模型
      • 全局可解释性
      • 局部可解释性
    • 其他拓展
      • Catboost教程
      • 更多详细文档

可解释性

数据科学家生成的 ML 模型包含世界状态的复杂数学表示。数据科学家、产品经理、业务人员或参与构建和使用 ML 解决方案的任何人都渴望知道是什么控制了 ML 输出。

可解释性:负责回答 ML 方法背后的基本机制是什么。例如,你可以构建一个线性回归模型来根据给定区域的降水率预测销售的雨伞数量。了解模型权重和特征,你可以轻松计算出销售数量。然后,你可以准确回答模型预测结果的原因和方式。

y(预测的雨伞数量)= 10 * x&#x

相关内容

热门资讯

给空压机换上“中国关节” 本报讯 (记者 苏益纯 通讯员 洪江武) 运行温度降低20℃,设备振动值明显下降,各项指标均优于改造...
敏于监督 速于办案   本报讯(全媒体记者匡雪 通讯员赵元桢)“判决结果出来了,我们追诉的上游供货商、监督立案的下线买家...
实地走访 护“桂”有方   近日,广东省肇庆市高要区检察院检察官来到当地肉桂企业,了解企业经营发展现状,结合办案进行风险提示...
伊拉克称不追究外国石油公司“不... 当地时间3月20日晚,伊拉克石油部消息人士称,伊拉克政府决定对在伊外国石油公司负责开发的所有油田实行...
伊朗总统:无意与伊斯兰国家发生... 来源:新华网新华社德黑兰3月20日电 据伊朗伊斯兰共和国通讯社报道,伊朗总统佩泽希齐扬20日表示,伊...