SKlearn模型评估方法
准确率
1.accuracy_score
1 | # 准确率 |
2.metrics
- 宏平均比微平均更合理,但也不是说微平均一无是处,具体使用哪种评测机制,还是要取决于数据集中样本分布
- 宏平均(Macro-averaging),是先对每一个类统计指标值,然后在对所有类求算术平均值。
- 微平均(Micro-averaging),是对数据集中的每一个实例不分类别进行统计建立全局混淆矩阵,然后计算相应指标。
1 | from sklearn import metrics |
- 其中 average 参数有五种:(None, ‘micro’, ‘macro’, ‘weighted’, ‘samples’)
召回率
1 | metrics.recall_score(y_true, y_pred, average='micro') |
F1
1 | metrics.f1_score(y_true, y_pred, average='weighted') |
F2
根据公式计算
1 | from sklearn.metrics import precision_score, recall_score |
混淆矩阵
1 | from sklearn.metrics import confusion_matrix |
分类报告
包含:precision/recall/fi-score/均值/分类个数
1 | # 分类报告:precision/recall/fi-score/均值/分类个数 |
输出
1 | precision recall f1-score support |
kappa score
- kappa score 是一个介于(-1, 1)之间的数. score>0.8 意味着好的分类;0 或更低意味着不好(实际是随机标签)
1 | from sklearn.metrics import cohen_kappa_score |
- ROC 1.计算 ROC 值
1 | import numpy as np |
- 2.ROC 曲线
1 | y = np.array([1, 1, 2, 2]) |
- 海明距离
1 | from sklearn.metrics import hamming_loss |
Jaccard 距离
1 | import numpy as np |
可释方差值(Explained variance score)
1 | from sklearn.metrics import explained_variance_score |
平均绝对误差(Mean absolute error)
1 | from sklearn.metrics import mean_absolute_error |
均方误差(Mean squared error)
1 | from sklearn.metrics import mean_squared_error |
中值绝对误差(Median absolute error)
1 | from sklearn.metrics import median_absolute_error |
R 方值,确定系数
1 | from sklearn.metrics import r2_score |
参考文献
本文作者 : HeoLis
原文链接 : https://ishero.net/SKlearn%E6%A8%A1%E5%9E%8B%E8%AF%84%E4%BC%B0%E6%96%B9%E6%B3%95.html
版权声明 : 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!
学习、记录、分享、获得