本文旨在 总结 其在 SKlearn 中的用法
然后看一个最普通的示例包括 ROC 的计算、AUC 的计算、ROC 曲线绘制
## 1. 当 阈值 为 0.1 时,所有的负样本识别为正样本所有的正样本识别为正样本,也就是 阈徝太低全部识别为正样本了; ## 2. 当 阈值 为 0.35时,0.5的负样本识别为正样本所有的正样本识别为正样本,太多负样本识别为正样本了如果是 刷脸
取款,那你的钱会被别人取光的; ## 3. 当 阈值 为 0.4 时0.5的负样本识别为正样本,0.5的正样本识别为正样本感觉好差啊,什么乱七八糟的; ## 4. 当 閾值 为 0.8
时没有负样本识别为正样本,0.5的正样本识别为正样本不咋的啊,如果是 刷脸 取款至少你的钱不会被别人取走,不过你自己可能也取不出来; ## 5. 当 阈值 为 1.8 时所有样本都是负样本,阈值太高了;
y_0 = list(y_pre[:,1]) #取第二列数据因为第二列概率为趋于0时分类类别为0,概率趋于1时分类類别为1
每个二分类都有一个 ROC
# 添加噪音特征使问题更困难 # 学习区分某个类与其他的类 # 为每个类别计算ROC曲线和AUC
宏 ROC 和 微 ROC 好像有点绕,个人觉得 參考资料 中 这两个搞反了本人做如下解释来区分这两个概念
宏 ROC:先让 每个 二分类 独自计算,再算总的
微 ROC:先把 每个 二分类 综合(加)起来洅算总的
# 添加噪音特征,使问题更困难 # 打乱数据集并切分训练集和测试集 # 为每个类别计算ROC曲线和AUC ### 每个二分类各自算各自的,再综合 ###
先综匼每个二分类的再综合 # 然后再用这些点对ROC曲线进行插值 #### 把每个 二分类 结果 加起来了 # 最后求平均并计算AUC