比较与torch.nn.SmoothL1Loss的差异

查看源文件

torch.nn.SmoothL1Loss

class torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction='mean', beta=1.0)(input, target) -> Tensor

更多内容详见torch.nn.SmoothL1Loss

mindspore.nn.SmoothL1Loss

class mindspore.nn.SmoothL1Loss(beta=1.0, reduction='none')(logits, labels) -> Tensor

更多内容详见mindspore.nn.SmoothL1Loss

差异对比

PyTorch:SmoothL1Loss损失函数,如果预测值和目标值的逐个元素绝对误差小于设定阈值beta则用平方项,否则用绝对误差项。

MindSpore:除两个在PyTorch已弃用的参数不同外,功能上无差异。

分类

子类

PyTorch

MindSpore

差异

参数

参数1

size_average

-

已弃用,被reduction取代,MindSpore无此参数

参数2

reduce

-

已弃用,被reduction取代,MindSpore无此参数

参数3

reduction

reduction

功能一致,默认值不同

参数4

beta

beta

-

输入

输入1

input

logits

功能一致,参数名不同

输入2

target

labels

功能一致,参数名不同

代码示例

两API实现功能一致,用法相同。

# PyTorch
import torch
import torch.nn as nn

beta = 1
loss = nn.SmoothL1Loss(reduction="none", beta=beta)
logits = torch.FloatTensor([1, 2, 3])
labels = torch.FloatTensor([1, 2, 2])
output = loss(logits, labels)
print(output.numpy())
# [0.  0.  0.5]

# MindSpore
import mindspore
import numpy as np
from mindspore import Tensor

loss = mindspore.nn.SmoothL1Loss()
logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
labels = Tensor(np.array([1, 2, 2]), mindspore.float32)
output = loss(logits, labels)
print(output)
# [0.  0.  0.5]