100字范文,内容丰富有趣,生活中的好帮手!
100字范文 > 模型评价指标 混淆矩阵其实并没有名字那么的神秘

模型评价指标 混淆矩阵其实并没有名字那么的神秘

时间:2021-04-26 04:49:57

相关推荐

模型评价指标 混淆矩阵其实并没有名字那么的神秘

点击上方“AI遇见机器学习”,选择“星标”公众号

重磅干货,第一时间送达

混淆矩阵:也称为误差矩阵,是一种特定的表格布局,允许可视化算法的性能,通常是监督学习的算法(在无监督学习通常称为匹配矩阵)。矩阵的每一行代表预测类中的实例,而每列代表实际类中的实例(反之亦然)。从字面理解:看出系统是否混淆了两个类(即通常将一个类错误标记为另一个类)(多类可以合并为二分类)。

一级评价指标:由四个基础指标构成:TP、FN、FP、TN① 真实值是positive,模型认为是positive的数量(True Positive=TP)② 真实值是positive,模型认为是negative的数量(False Negative=FN):这就是统计学上的第一类错误(Type I Error)③ 真实值是negative,模型认为是positive的数量(False Positive=FP):这就是统计学上的第二类错误(Type II Error)④ 真实值是negative,模型认为是negative的数量(True Negative=TN)

一级评价指标混淆矩阵图例:

一级评价指标混淆矩阵图例.png

二级评价指标:准确率(Accuracy):ACC精确率(Precision):PPV灵敏度(Sensitivity)=召回率(Recall)=命中率=真实阳性率:TPR特异度(Specificity):TNR(更多名词可查看维基百科)

二级评价指标图例.png

三级评价指标:F1 Score:

其中,P代表Precision,R代表Recall。F1-Score指标综合了Precision与Recall的产出的结果。F1-Score的取值范围从0到1的,1代表模型的输出最好,0代表模型的输出结果最差。

MCC 马修斯相关系数:衡量不平衡数据集的指标比较好。

ROC曲线:ROC曲线的横坐标为false positive rate(FPR),纵坐标为 true positive rate(TPR) 。当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。

ROC.png

PRC曲线:在正负样本分布得极不均匀(highly skewed >

PRC.png

实列理解:

混淆矩阵例2.png

该图表示的是模型预测动物的预测数据图。通过该混淆矩阵,可以得到以下结论:

Accuracy:在总共66个动物中,我们一共预测对了10 + 15 + 20=45个样本,所以准确率(Accuracy)=45/66 = 68.2%。下面以猫为例,将上面的图合并为二分类问题,求出二级评价指标与三级评价指标:

混淆矩阵例3.png

Precision:以猫为例,66只动物里有13只是猫,其中这13只猫只有10只预测对了。模型认为是猫的13只动物里,有1条狗,两只猪。所以,Precision(猫)= 10/13 = 76.9%

Recall:以猫为例,在总共18只真猫中,我们的模型认为里面只有10只是猫,剩下的3只是狗,5只都是猪。这5只八成是橘猫,能理解。所以,Recall(猫)= 10/18 = 55.6%

Specificity:以猫为例,在总共48只不是猫的动物中,模型认为有45只不是猫。所以,Specificity(猫)= 45/48 = 93.8%。虽然在45只动物里,模型依然认为错判了6只猪与4只狗,但是从猫的角度而言,模型的判断是没有错的。

F1-Score:通过公式,可以计算出,对猫而言,F1-Score=(2 * 0.769 * 0.556)/( 0.769 + 0.556) = 64.54%

参考链接:维基百科:/wiki/Confusion_matrixCSDN:/Orange_Spotty_Cat/article/details/80520839

推荐阅读

欢迎关注我们,看通俗干货

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。