当前位置:网站首页>一张图深入的理解FP/FN/Precision/Recall

一张图深入的理解FP/FN/Precision/Recall

2022-07-07 17:14:00 算法与编程之美

在这里插入图片描述
由于图片较大,建议右键打开新的窗口以便于阅读!

(1) TP和TN都比较好理解,然而FP和FN容易混淆;

  • FP(False Positive)表示错误的正例即错误的将样本中的负例识别为正例,如右图3、4行红色正方形所示;
  • FN(False Negative)表示错误的负例即错误的将样本中的正例识别为负例,如右图1、2行红色三角形所示;

(2) 关于评价指标,Accuracy比较好理解,然而Precision和Recall特别容易混淆;

  • Precision面向的是检测后的比例,在模型检测后(右图),检测到的所有正例结果包括正确的正例和错误的正例,相对于原始样本来说, 无论是正确的正例还是错误的正例,其检测结果均为正例,故检测结果中,正例的总数为(TP+FP), 那么在这些正例中,有多少是正确的正例呢?答案就是TP/(TP+FP);FP越小,则Precision越大,而FP即为误报为正例数量; 因此,Precision反映的是样本中正例误报的情况。
  • Recall面向的是检测前的比例,在原始样本中(左图),所有的正例被模型真正检测出来的有多少?TP即为检测出来的正例个数, 那么原始样本中所有的正例个数是多少呢?答案是检测出来的正例个数加上未检测出来的正例个数; 而未检测出来的正例个数就是原本是正例然而被模型检测为负例,如右图1、2行的红色三角所示,即为错误的负例(FP); 故Recall=TP/(TP+FN);FN越小,则Recall越大,而FN即为漏检为正例的数量;因此Recall反映的是样本中正例漏检的情况。
原网站

版权声明
本文为[算法与编程之美]所创,转载请带上原文链接,感谢
https://where2go.blog.csdn.net/article/details/125655471