图像分类中混淆矩阵精度验证法中的几个指标说明


混淆矩阵是我们验证图像分类结果精度第一种常用的指标,通过Toolbox/Classification/Post Classification/Confusion Matrix Using Ground Truth ROIs,可以得到如下的分类精度验证的混淆矩阵。

要看懂这个精度验证结果,需要了解几个混淆矩阵中的几项评价指标:

  •  总体分类精度(Overall Accuracy

等于被正确分类的像元总和除以总像元数。被正确分类的像元数目沿着混淆矩阵的对角线分布,总像元数等于所有真实参考源的像元总数,如本次精度分类精度表中的Overall Accuracy = (110230/125843) 87.5933%

  •  Kappa系数(Kappa Coefficient

它是通过把所有真实参考的像元总数(N)乘以混淆矩阵对角线(XKK)的和,再减去某一类中真实参考像元数与该类中被分类像元总数之积之后,再除以像元总数的平方减去某一类中真实参考像元总数与该类中被分类像元总数之积对所有类别求和的结果。

  Kappa计算公式

  •  错分误差(Commission

指被分为用户感兴趣的类,而实际属于另一类的像元,它显示在混淆矩阵里面。本例中,总共划分为林地有19210个像元,其中正确分类168252385个是其他类别错分为林地(混淆矩阵中林地一行其他类的总和),那么其错分误差为2385/19210= 12.42%

  • 漏分误差(Omission

指本身属于地表真实分类,当没有被分类器分到相应类别中的像元数。如在本例中的林地类,有真实参考像元16885个,其中16825个正确分类,其余60个被错分为其余类(混淆矩阵中耕地类中一列里其他类的总和),漏分误差60/16885=0.36%

  •  制图精度(Prod.Acc

是指分类器将整个影像的像元正确分为A类的像元数(对角线值)与A类真实参考总数(混淆矩阵中A类列的总和)的比率。如本例中林地有16885个真实参考像元,其中16825个正确分类,因此林地的制图精度是16825/16885=99.64%

  • 用户精度(User.Acc

是指正确分到A类的像元总数(对角线值)与分类器将整个影像的像元分为A类的像元总数(混淆矩阵中A类行的总和)比率。如本例中林地有16825个正确分类,总共划分为林地的有19210,所以林地的用户精度是16825/19210=87.58%