比较与tf.keras.metrics.Precision的功能差异

查看源文件

tf.keras.metrics.Precision

tf.keras.metrics.Precision(
    thresholds=None, top_k=None, class_id=None, name=None, dtype=None
)

更多内容详见tf.keras.metrics.Precision

mindspore.train.Precision

mindspore.train.Precision(eval_type="classification")

更多内容详见mindspore.train.Precision

使用方式

计算公式相同,都为precision = true_positives / (true_positives + false_positives),但对输入处理逻辑不同,假设输入真实值为y_true,预测值为y_pred,差异如下:

TensorFlow:TensorFlow1.15版本此接口仅支持二分类的单标签场景,最终返回precision的均值。y_true被映射到布尔型变量(除0外都被映射为1);y_pred>thresholds被认为预测为正类,y_pred<=thresholds被认为预测为负类。入参大致情况如下:

  • thresholds:设置预测值判别为正确的阈值,默认值为None,此时会使用0.5对预测值进行正确与否的判断。

  • top_k:默认值为None,此时使用全量样本。设置后thresholds会失效,此时选用预测值topk的样本进行计算。

  • class_id:指定类别id进行单类别计算。

MindSpore:支持单标签和多标签场景。通过布尔型入参average控制返回结果,默认为False,返回各类别的precision统计值,若设置为True,则返回均值。

以下述代码为例,两接口的输入为相同样例,默认参数情况下,mindspore.nn.Precision将输入解析为5条样本的3分类问题,输出长度为3的列表表示各类的precision,tf.keras.metrics.Precision将输入解析为15条样本的2分类问题,输出所有样本的precision均值。

代码示例

import tensorflow as tf
tf.enable_eager_execution()

y_pred = [[0.2, 0.5, 0.1], [0.3, 0.1, 0.1], [0.9, 0.6, 0.1], [0.9, 0.6, 0.97], [0.2, 0.6, 0.8]]
y_true = [[0, 1, 0], [1, 0, 0], [0, 1, 0], [0, 0, 1], [0, 0, 1]]

m = tf.keras.metrics.Precision()
m.update_state(y_true, y_pred)
print(m.result().numpy())
# output: 0.42857143

m = tf.keras.metrics.Precision(thresholds=0.6)
m.update_state(y_true, y_pred)
print(m.result().numpy())
# output: 0.5

m = tf.keras.metrics.Precision(top_k=3)
m.update_state(y_true, y_pred)
print(m.result().numpy())
# output: 0.33333334


import numpy as np
from mindspore.train import Precision

x = ms.Tensor(np.array([[0.2, 0.5, 0.1], [0.3, 0.1, 0.1], [0.9, 0.6, 0.1], [0.9, 0.6, 0.97], [0.2, 0.6, 0.8]]))
y = ms.Tensor(np.array([[0, 1, 0], [1, 0, 0], [0, 1, 0], [0, 0, 1], [0, 0, 1]]))
metric = Precision('classification')
metric.update(x, y)
print(metric.eval(average=True), metric.eval())

# output: 0.8333333333333334 [0.5 1.  1. ]