大家好,欢迎来到IT知识分享网。
多分类问题中常用的评价指标。
目录
2.UAR(unweighted average recall)未加权平均召回率
1.WA(weighted accuracy)加权准确率
在多分类问题中,加权准确率(Weighted Accuracy)是一种考虑每个类别样本数量的准确率计算方式。对于样本不均衡的情况,该方式比较适用。其计算方式是将每个类别的准确率乘以该类别在总样本中的比例(权重),然后求和。
其实就是我们日常跑代码出来的acc
计算公式如下:
其中,TP_i 是第 i 类的真正例数量,FP_i 是第 i 类的假正例数量,FN_i 是第 i 类的假反例数量。Σ 表示对所有类别求和。
2.UAR(unweighted average recall)未加权平均召回率
是一种性能评估指标,主要用于多分类问题。它表示各类别的平均召回率(Recall),在计算时,不对各类别进行加权。对于每个类别,召回率是该类别中真正被正确预测的样本数与该类别中所有样本数的比值。
UAR在评估一个分类器时,对每个类别都给予相同的重要性,而不考虑各类别的样本数量。这使得UAR在处理不平衡数据集时具有一定的优势,因为它不会受到数量较多的类别的影响。
计算公式如下:
其中,Recall_i 是第 i 类的召回率,N 是类别的总数。
3.F1分数
F1分数是精确率(Precision)和召回率(Recall)的调和平均值。在多分类问题中,通常会计算每个类别的F1分数,然后取平均值作为总体的F1分数。平均方法可以是简单的算术平均(Macro-F1)(常用),也可以是根据每个类别的样本数量进行加权的平均(Weighted-F1)。
计算公式如下:
4.使用sklearn进行计算
from sklearn.metrics import classification_report
使用👆导入的包,模型输出预测值y_pred和真实值y_test得到report如下:
report = classification_report(y_test, y_pred)
precision recall f1-score support 0 0.89 0.80 0.84 10 1 0.60 0.75 0.67 8 2 0.92 0.85 0.88 13 accuracy 0.81 31 macro avg 0.80 0.80 0.80 31 weighted avg 0.83 0.81 0.82 31
“macro avg”行表示,对于精度(precision),召回率(recall)和F1分数(f1-score),它们的未加权平均值分别是0.80、0.80和0.80。
“weighted avg”行表示,对于精度(precision),召回率(recall)和F1分数(f1-score),它们的加权平均值分别是0.83、0.81和0.82。加权平均是根据每个类别的样本数进行加权的,所以在这个案例中,类别2(有13个样本)的影响力大于类别0(10个样本)和类别1(8个样本)。
accuracy,可以视作每个类别的权重都一样的加权准确率。
5.适用场景
在类别不平衡的情况下,UAR 和 F1 分数通常比准确率更能反映模型的性能。
6.其他
精确率(Precision)和准确率(Accuracy)都是评价模型性能的重要指标,但是他们衡量的角度不同。
准确率(Accuracy):是所有预测正确的样本(真正例TP和真负例TN)占总样本数(TP+TN+FP+FN)的比例。它适用于正负样本比例相当的情况。在正负样本极度不均衡的情况下,准确率就没有太大的意义。
Accuracy = (TP+TN) / (TP+TN+FP+FN)
精确率(Precision):是预测为正且预测正确的样本(真正例TP)占所有预测为正的样本数(TP+FP)的比例。它适用于关注假正例(FP,即将负例错误预测为正例)的情况。
Precision = TP / (TP+FP)
举个例子,假设有100个邮件,其中95个是垃圾邮件,5个是正常邮件。如果模型预测所有邮件都是垃圾邮件,那么准确率是95%(因为正确预测了95个垃圾邮件),但是精确率就是0%(因为没有预测出任何正常邮件)。所以在不同的场景和需求下,我们需要根据实际情况选择合适的评价指标。
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/147617.html