sklearn.metrics.ari/acc/nmi使用报错&sklearn各种评价指标

一、使用报错

尝试将from sklearn import metrics修改为

from sklearn.metrics import accuracy_score
from sklearn.metrics.cluster import normalized_mutual_info_score
from sklearn.metrics.cluster import adjusted_rand_score

不确定是不是metrics版本的问题。

二、评价指标

1. 回归

1)#回归方差(反应自变量与因变量之间的相关程度)
explained_variance_score(y_true, y_pred, sample_weight=None, multioutput=‘uniform_average’)

2)#平均绝对误差
mean_absolute_error(y_true,y_pred,sample_weight=None,
multioutput=‘uniform_average’)

3)#均方差
mean_squared_error(y_true, y_pred, sample_weight=None, multioutput=‘uniform_average’)

4)#中值绝对误差
median_absolute_error(y_true, y_pred) 

5)#R平方值
r2_score(y_true, y_pred,sample_weight=None,multioutput=‘uniform_average’)

2. 分类

1)#精度
accuracy_score(y_true,y_pre)

2)#ROC曲线下的面积;较大的AUC代表了较好的performance
auc(x, y, reorder=False)

3)#根据预测得分计算平均精度(AP)
average_precision_score(y_true, y_score, average=‘macro’, sample_weight=None)

4)#通过计算混淆矩阵来评估分类的准确性 返回混淆矩阵
confusion_matrix(y_true, y_pred, labels=None, sample_weight=None)

5)#F1值
f1_score(y_true, y_pred, labels=None, pos_label=1, average=‘binary’, sample_weight=None)

6)#查准率或者精度; precision(查准率)=TP/(TP+FP)
precision_score(y_true, y_pred, labels=None, pos_label=1, average=‘binary’)

7)#查全率 ;recall(查全率)=TP/(TP+FN)
recall_score(y_true, y_pred, labels=None, pos_label=1, average=‘binary’, sample_weight=None)

8)#计算ROC曲线下的面积就是AUC的值
roc_auc_score(y_true, y_score, average=‘macro’, sample_weight=None)

9)#计算ROC曲线的横纵坐标值,TPR,FPR
  #TPR = TP/(TP+FN) = recall(真正例率,敏感度) FPR = FP/(FP+TN)(假正例率,1-特异性)
roc_curve(y_true, y_score, pos_label=None, sample_weight=None, drop_intermediate=True)

10)#对数损耗,又称逻辑损耗或交叉熵损耗
log_loss(y_true, y_pred, eps=1e-15, normalize=True, sample_weight=None, labels=None)

参考sklearn中的模型评估-构建评估函数 - _harvey - 博客园


版权声明:本文为weixin_44447680原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。