卷积神经网络的深入理解-评测指标篇
绪论
这一篇主要是介绍一下模型的评测指标,与上几篇文章一样都会持续更新。
什么是评测指标?
评测指标是用来定量衡量模型的性能的,是作为各种方法比较的一个标准。
评测指标可以分为分类任务的评测指标和回归任务的评测指标
下面会详细介绍两种任务的评测指标。
分类任务评测指标
1、准确率/召回率/精确度/F1-score
在这之前我们要了解几个概念:
* | 正例(预测) | 反例(预测) |
---|---|---|
正例(真实情况) | TP(真正例(true positive)预测为正,真实情况为正时) | FN(假反例(false negative)预测为反,真实情况为正时) |
反例(真实情况) | FP(假正例(false positive)预测为正,真实情况为反时) | TN(真反例(true negative)预测为反,真实情况为反) |
准确率(Accuracy):
A c c u r a c y = ( T P + T N ) ( T P + F P + T N + F N ) = 预 测 正 确 的 样 本 数 总 的 样 本 数 Accuracy=\frac{(TP+TN)}{(TP+FP+TN+FN)}=\frac{预测正确的样本数}{总的样本数}Accuracy=(TP+FP+TN+FN)(TP+TN)=总的样本数预测正确的样本数
精确度(Precision)(注意这里正反是相对的):
P r e c i s i o n = T P T P + F P = 预 测 正 确 的 正 样 本 数 预 测 为 正 的 样 本 数 Precision=\frac{TP}{TP+FP}=\frac{预测正确的正样本数}{预测为正的样本数}Precision=TP+FPTP=预测为正的样本数预测正确的正样本数
或
P r e c i s i o n = T N F N + T N = 预 测 正 确 的 负 样 本 数 预 测 为 负 的 样 本 数 Precision=\frac{TN}{FN+TN}=\frac{预测正确的负样本数}{预测为负的样本数}Precision=FN+TNTN=预测为负的样本数预测正确的负样本数
本质上是一样的,只不过一般选择正样本(也就是你关注的样本)计算精确度。
召回率(Recall)(与精确度一样,只选择正样本计算召回率):
R e c a l l = T P T P + F N = 预 测 正 确 的 正 样 本 数 真 实 标 签 为 正 的 样 本 数 Recall=\frac{TP}{TP+FN}=\frac{预测正确的正样本数}{真实标签为正的样本数}Recall=TP+FNTP=真实标签为正的样本数预测正确的正样本数
即正样本有多少被召回。
F1-score:
F 1 s c o r e = 2 ∗ P r e c i s i o n ∗ R e c a l l P r e c i s i o n + R e c a l l F1 score=\frac{2*Precision*Recall}{Precision+Recall}F1score=Precision+Recall2∗Precision∗Recall
2、Precision/Recall(P-R)曲线
Precision/Recall曲线也叫做P-R曲线,Precision与Recall是一对矛盾的变量。
从图中可以看出(上图中查全率即为召回率,查准率即为精确度):
1、召回率增加,精度下降;
下面以我的角度解释一下为什么查全率与查准率的关系成反比。
通俗一点就是
重查全率(recall): 宁可错杀一千,不可漏过一个。
重查准率(precision): 宁可漏过坏人,不可错杀无辜的好人。
首先我们假设正例样本数(T)和反例样本数(F)是确定的。
即:
T P + F N = T ( 实 际 正 样 本 的 总 个 数 ) TP+FN=T(实际正样本的总个数)TP+FN=T(实际正样本的总个数)
F P + T N = F ( 实 际 负 样 本 的 总 个 数 ) FP+TN=F(实际负样本的总个数)FP+TN=F(实际负样本的总个数)
假设我们要提高查全率
R = T P ( T P + F N ) = T P T R=\frac{TP}{(TP+FN)}=\frac{TP}{T}R=(TP+FN)TP=TTP
T TT的数量是不变的,要提高查全率我们就要提高T P TPTP即预测为正的个数,而
P = T P ( T P + F P ) P=\frac{TP}{(TP+FP)}P=(TP+FP)TP
T P TPTP的提高,必然会增加预测正例T P + F P TP+FPTP+FP,此过程中会引入新增的FP,
且分母( T P + F P ) (TP+FP)(TP+FP)的增幅会大于分子T P TPTP的增幅。
2、曲线与坐标值面积越大,性能越好(能更大的提升精确度和召回率);但是有时面积不好计较,那么就选择y = x y=xy=x与P-R曲线的交点也叫作平衡点(BEP)比较BEP,越大的学习器越优。
3、对正负样本不均衡问题较敏感。
3、ROC曲线
ROC曲线的横坐标是false positive rate(FPR):
F P R = F P ( F P + T N ) = 将 反 例 预 测 为 正 例 的 样 本 数 标 签 为 反 的 样 本 数 FPR=\frac{FP}{(FP+TN)}=\frac{将反例预测为正例的样本数}{标签为反的样本数}FPR=(FP+TN)FP=标签为反的样本数将反例预测为正例的样本数
纵坐标为true positive rate(TPR)
T P R = T P ( T P + F N ) = 将 正 例 预 测 为 正 例 的 样 本 数 标 签 为 正 的 样 本 数 TPR=\frac{TP}{(TP+FN)}=\frac{将正例预测为正例的样本数}{标签为正的样本数}TPR=(TP+FN)TP=标签为正的样本数将正例预测为正例的样本数
下图来自阿里公开课
ROC曲线对正负样本不均衡问题不敏感。
那么该选择PR曲线还是ROC曲线呢?
这里引用了这篇博客P-R曲线及与ROC曲线区别
1、在很多实际问题中,正负样本数量往往很不均衡。比如,计算广告领域经常涉及转化率模型,正样本的数量往往是负样本数量的1/1000,甚至1/10000。若选择不同的测试集,P-R曲线的变化就会非常大,而ROC曲线则能够更加稳定地反映模型本身的好坏。所以,ROC曲线的适用场景更多,被广泛用于排序、推荐、广告等领域。
2、但需要注意的是,选择P-R曲线还是ROC曲线是因实际问题而异的,如果研究者希望更多地看到模型在特定数据集上的表现,P-R曲线则能够更直观地反映其性能。
3、ROC兼顾了正负样本。当正负样本比例失调时,比如正样本1个,负样本100个,则ROC曲线变化不大,此时用PR曲线更加能反映出分类器性能的好坏。
4、AUC面积
AUC面积其实就是ROC曲线的下半部分面积,与P-R图类似,通过比较AUC面积来比较学习器的优劣,面积大的更优。
回归任务评测指标
1、IOU(Intersection-over-Union)交并比
IOU多用于检测、分割任务中
I O U = A ∩ B A ∪ B IOU=\frac{A\cap B}{A\cup B}IOU=A∪BA∩B
2、AP(Average Precision)含计算实例
如图所示20个样本的id,预测概率,以及标签。
id | Score | Label | id | Score | Label |
---|---|---|---|---|---|
1 | 0.23 | 0 | 11 | 0.03 | 0 |
2 | 0.76 | 1 | 12 | 0.09 | 0 |
3 | 0.01 | 0 | 13 | 0.65 | 0 |
4 | 0.91 | 1 | 14 | 0.07 | 0 |
5 | 0.13 | 0 | 15 | 0.12 | 0 |
6 | 0.45 | 0 | 16 | 0.24 | 1 |
7 | 0.12 | 1 | 17 | 0.1 | 0 |
8 | 0.03 | 0 | 18 | 0.23 | 0 |
9 | 0.38 | 1 | 19 | 0.46 | 0 |
10 | 0.11 | 0 | 20 | 0.08 | 1 |
对上述标签进行概率排序
id | Score | Label | id | Score | Label |
---|---|---|---|---|---|
4 | 0.91 | 1 | 7 | 0.12 | 1 |
2 | 0.76 | 1 | 15 | 0.12 | 0 |
13 | 0.65 | 0 | 10 | 0.11 | 0 |
19 | 0.46 | 0 | 17 | 0.1 | 0 |
6 | 0.45 | 0 | 12 | 0.09 | 0 |
9 | 0.38 | 1 | 20 | 0.08 | 1 |
16 | 0.24 | 1 | 14 | 0.07 | 0 |
1 | 0.23 | 0 | 8 | 0.03 | 0 |
18 | 0.23 | 0 | 11 | 0.03 | 0 |
5 | 0.13 | 0 | 3 | 0.01 | 0 |
正样本的id为:
2、4、7、9、16、20一共六个
top-N就是取前N个,注意是将这N个都预测为正
比如top-5就是取前5个(上面表格中加粗的部分)
P r e c i s i o n = T P T P + F P = 预 测 正 确 的 正 样 本 数 预 测 为 正 的 样 本 数 = 2 5 Precision=\frac{TP}{TP+FP}=\frac{预测正确的正样本数}{预测为正的样本数}=\frac{2}{5}Precision=TP+FPTP=预测为正的样本数预测正确的正样本数=52
R e c a l l = T P T P + F N = 预 测 正 确 的 正 样 本 数 真 实 标 签 为 正 的 样 本 数 = 2 6 Recall=\frac{TP}{TP+FN}=\frac{预测正确的正样本数}{真实标签为正的样本数}=\frac{2}{6}Recall=TP+FNTP=真实标签为正的样本数预测正确的正样本数=62
(1)下面是top-1到top-20的表格:
top-N | Precision(注意这里是精确度) | recall |
---|---|---|
1 | 1/1 | 1/6 |
2 | 2/2 | 2/6 |
3 | 2/3 | 2/6 |
4 | 2/4 | 2/6 |
5 | 2/5 | 2/6 |
6 | 3/6 | 3/6 |
7 | 4/7 | 4/6 |
8 | 4/8 | 4/6 |
9 | 4/9 | 4/6 |
10 | 4/10 | 4/6 |
11 | 5/11 | 5/6 |
12 | 5/12 | 5/6 |
13 | 5/13 | 5/6 |
14 | 5/14 | 5/6 |
15 | 5/15 | 5/6 |
16 | 6 /16 | 6/6 |
17 | 6/17 | 6/6 |
18 | 6/18 | 6/6 |
19 | 6/19 | 6/6 |
20 | 6/20 | 6/6 |
上面表格中大字号黑体的精确度是相同召回率的最大值。
(2)设置阈值统计recall大于等于每个阈值时最大的精确度
这里取11个阈值[0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1]
阈值为0时,recall全部大于0,从中取出最大精确度:
P = m a x { 1 1 , 2 2 , 3 6 , 4 7 , 5 11 , 6 16 } = 1 P=max\left \{ \frac{1}{1},\frac{2}{2},\frac{3}{6},\frac{4}{7},\frac{5}{11},\frac{6}{16}\right \}=1P=max{11,22,63,74,115,166}=1
阈值为0.1时,recall全部大于等于0.1,从中选出最大精确度:
P = m a x { 1 1 , 2 2 , 3 6 , 4 7 , 5 11 , 6 16 } = 1 P=max\left \{ \frac{1}{1},\frac{2}{2},\frac{3}{6},\frac{4}{7},\frac{5}{11},\frac{6}{16}\right \}=1P=max{11,22,63,74,115,166}=1
阈值为0.2时,recall大于等于0.2的值有2 6 \frac{2}{6}62,3 6 \frac{3}{6}63,4 6 \frac{4}{6}64,5 6 \frac{5}{6}65,6 6 \frac{6}{6}66,
P = m a x { 2 2 , 3 6 , 4 7 , 5 11 , 6 16 } = 1 P=max\left \{ \frac{2}{2},\frac{3}{6},\frac{4}{7},\frac{5}{11},\frac{6}{16}\right \}=1P=max{22,63,74,115,166}=1
阈值为0.3时recall大于等于0.3的值有2 6 \frac{2}{6}62,3 6 \frac{3}{6}63,4 6 \frac{4}{6}64,5 6 \frac{5}{6}65,6 6 \frac{6}{6}66,
P = m a x { 2 2 , 3 6 , 4 7 , 5 11 , 6 16 } = 1 P=max\left \{ \frac{2}{2},\frac{3}{6},\frac{4}{7},\frac{5}{11},\frac{6}{16}\right \}=1P=max{22,63,74,115,166}=1
阈值为0.4时recall大于等于0.4的值有3 6 \frac{3}{6}63,4 6 \frac{4}{6}64,5 6 \frac{5}{6}65,6 6 \frac{6}{6}66,
P = m a x { 3 6 , 4 7 , 5 11 , 6 16 } = 4 7 P=max\left \{ \frac{3}{6},\frac{4}{7},\frac{5}{11},\frac{6}{16}\right \}= \frac{4}{7}P=max{63,74,115,166}=74
阈值为0.5时recall大于等于0.5的值有3 6 \frac{3}{6}63,4 6 \frac{4}{6}64,5 6 \frac{5}{6}65,6 6 \frac{6}{6}66,
P = m a x { 3 6 , 4 7 , 5 11 , 6 16 } = 4 7 P=max\left \{ \frac{3}{6},\frac{4}{7},\frac{5}{11},\frac{6}{16}\right \}= \frac{4}{7}P=max{63,74,115,166}=74
阈值为0.6时recall大于等于0.6的值有3 6 \frac{3}{6}63,4 6 \frac{4}{6}64,5 6 \frac{5}{6}65,6 6 \frac{6}{6}66,
P = m a x { 4 7 , 5 11 , 6 16 } = 4 7 P=max\left \{ \frac{4}{7},\frac{5}{11},\frac{6}{16}\right \}= \frac{4}{7}P=max{74,115,166}=74
阈值为0.7时recall大于等于0.7的值有5 6 \frac{5}{6}65,6 6 \frac{6}{6}66,
P = m a x { 5 11 , 6 16 } = 5 11 P=max\left \{ \frac{5}{11},\frac{6}{16}\right \}= \frac{5}{11}P=max{115,166}=115
阈值为0.8时recall大于等于0.8的值有5 6 \frac{5}{6}65,6 6 \frac{6}{6}66,
P = m a x { 5 11 , 6 16 } = 5 11 P=max\left \{ \frac{5}{11},\frac{6}{16}\right \}= \frac{5}{11}P=max{115,166}=115
阈值为0.9时recall大于等于0.9的值有6 6 \frac{6}{6}66,
P = m a x { 6 16 } = 6 16 P=max\left \{ \frac{6}{16}\right \}= \frac{6}{16}P=max{166}=166
阈值为1时recall大于等于1的值有6 6 \frac{6}{6}66,
P = m a x { 6 16 } = 6 16 P=max\left \{ \frac{6}{16}\right \}= \frac{6}{16}P=max{166}=166
(3)计算AP值(AP值就是上述11个精确度的平均值):
A P = 1 + 1 + 1 + 1 + 4 7 + 4 7 + 4 7 + 5 11 + 5 11 + 6 16 + 6 16 11 AP=\frac{1+1+1+1+\frac{4}{7}+\frac{4}{7}+\frac{4}{7}+\frac{5}{11}+\frac{5}{11}+\frac{6}{16}+\frac{6}{16}}{11}AP=111+1+1+1+74+74+74+115+115+166+166
(4)mAP值就是各个类别的平均值。