本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.
[1] 总览
6个基本评价指标如下思维导图:
[2] 介绍
假设有数据:样本数 batch_size = 5
,标签数 label_num = 4
。 y_true
为真实标签, y_pred
为预测标签值。
y_true = np.array([[0, 1, 0, 1], [0, 1, 1, 0], [0, 0, 1, 0], [1, 1, 1, 0], [1, 0, 1, 1]]) y_pred = np.array([[0, 1, 1, 0], [0, 1, 1, 0], [0, 0, 1, 0], [0, 1, 1, 0], [0, 1, 0, 1]])
[2.1] 子集准确率(Subset Accuracy)
对于每一个样本来说,只有预测值与真实值完全相同的情况下才算预测正确,也就是说只要有一个类别的预测结果有差异都算没有预测正确。因此,其计算公式为:
对照上面给的数据 y_true
、 y_pred
。那幺只有第2个和第3个样本才算预测正确。在sklearn中,可以直接通过 sklearn.metrics
模块中的 accuracy_score
方法来完成计算[3], 代码实现:
from sklearn.metrics import accuracy_score print(accuracy_score(y_true,y_pred)) # 0.4 print(accuracy_score(y_true,y_pred,normalize=False)) # 2
【注】accuracy_score
有参数 normalize
。normalize = False
时:返回完全正确的样本数,normalize = True
时:返回完全正确的样本数的占比。
[2.2] 准确率(Accuracy)
准确率计算的是所有样本的平均准确率。而对于每个样本来说,准确率就是预测正确的标签数在整个预测为正确或真实为正确标签数中的占比。其计算公式为:
例如对于某个样本来说,其真实标签为[0, 1, 0, 1],预测标签为[0, 1, 1, 0]。那幺该样本对应的准确率就应该为:(0 + 1 + 0 + 0) / (0 + 1 + 1 + 1)= 0.33。
对照上面给的数据 y_true
、 y_pred
。那幺该样本对应的准确率就应该为:
1 5 ∗ ( 1 3 + 2 2 + 1 1 + 2 3 + 1 4 ) = 0.65 \frac{1}{5} * (\frac{1}{3} + \frac{2}{2} + \frac{1}{1} + \frac{2}{3} + \frac{1}{4})= 0.65 0.65
在sklearn中,acc只有子集准确率,所以此处我们要自己实现。 代码实现:
def Accuracy(y_true, y_pred): count = 0 for i in range(y_true.shape[0]): p = sum(np.logical_and(y_true[i], y_pred[i])) q = sum(np.logical_or(y_true[i], y_pred[i])) count += p / q return count / y_true.shape[0] print(Accuracy(y_true, y_pred)) # 0.65
[2.3] 精确率(Precision)
精确率计算的是所有样本的平均精确率。而对于每个样本来说,精确率就是预测正确的标签数在整个预测为正确的标签数中的占比。其计算公式为:
例如对于某个样本来说,其真实标签为[0, 1, 0, 1],预测标签为[0, 1, 1, 0]。那幺该样本对应的精确率就应该为:(0 + 1 + 0 + 0) / (1 + 1)= 0.5。
对照上面给的数据 y_true
、 y_pred
。那幺该样本对应的准确率就应该为:
1 5 ∗ ( 1 2 + 2 2 + 1 1 + 2 2 + 1 2 ) = 0.8 \frac{1}{5} * (\frac{1}{2} + \frac{2}{2} + \frac{1}{1} + \frac{2}{2} + \frac{1}{2})= 0.8 0.8
代码实现:
from sklearn.metrics import precision_score print(precision_score(y_true=y_true, y_pred=y_pred, average='samples'))# 0.8
[2.4] 召回率(Recall)
召回率其实计算的是所有样本的平均召回率。而对于每个样本来说,召回率就是预测正确的标签数在整个正确的标签数中的占比。其计算公式为:
例如对于某个样本来说,其真实标签为[0, 1, 0, 1],预测标签为[0, 1, 1, 0]。那幺该样本对应的精确率就应该为:(0 + 1 + 0 + 0) / (1 + 1)= 0.5。
对照上面给的数据 y_true
、 y_pred
。那幺该样本对应的准确率就应该为:
1 5 ∗ ( 1 2 + 2 2 + 1 1 + 2 3 + 1 3 ) = 0.7 \frac{1}{5} * (\frac{1}{2} + \frac{2}{2} + \frac{1}{1} + \frac{2}{3} + \frac{1}{3})= 0.7 0.7
代码实现:
from sklearn.metrics import recall_score print(recall_score(y_true=y_true, y_pred=y_pred, average='samples'))# 0.7
[2.5] F1
其计算公式为:
例如对于某个样本来说,其真实标签为[0, 1, 0, 1],预测标签为[0, 1, 1, 0]。那幺该样本对应的精确率就应该为:2 * (0 + 1 + 0 + 0) / ((1 + 1)+(1 + 1))= 0.5。
对照上面给的数据 y_true
、 y_pred
。那幺该样本对应的准确率就应该为:
2 ∗ 1 5 ∗ ( 1 4 + 2 4 + 1 2 + 2 5 + 1 5 ) = 0.74 2*\frac{1}{5} * (\frac{1}{4} + \frac{2}{4} + \frac{1}{2} + \frac{2}{5} + \frac{1}{5})= 0.74 0.74
代码实现:
from sklearn.metrics import f1_score print(f1_score(y_true,y_pred,average='samples'))# 0.74
[2.6] 汉明损失(Hamming Loss)
Hamming Loss衡量的是所有样本中,预测错的标签数在整个标签标签数中的占比。所以对于Hamming Loss损失来说,其值越小表示模型的表现结果越好。
对照上面给的数据 y_true
、 y_pred
。那幺该样本对应的准确率就应该为:
1 5 ∗ 4 ∗ ( 2 + 0 + 0 + 1 + 3 ) = 0.3 \frac{1}{5*4} * (2 + 0 + 0 + 1 + 3)= 0.3 ( 2 + 3 ) = 0.3
代码实现:
from sklearn.metrics import hamming_loss print(hamming_loss(y_true, y_pred))# 0.3
Be First to Comment