# 比较与torch.autograd.enable_grad和torch.autograd.no_grad的功能差异 ## torch.autograd.enable_grad ```python torch.autograd.enable_grad() ``` 更多内容详见[torch.autograd.enable_grad](https://pytorch.org/docs/1.5.0/autograd.html#torch.autograd.enable_grad)。 ## torch.autograd.no_grad ```python torch.autograd.no_grad() ``` 更多内容详见[torch.autograd.no_grad](https://pytorch.org/docs/1.5.0/autograd.html#torch.autograd.no_grad)。 ## mindspore.ops.stop_gradient ```python mindspore.ops.stop_gradient(input) ``` 更多内容详见[mindspore.ops.stop_gradient](https://mindspore.cn/docs/zh-CN/r2.0.0-alpha/api_python/ops/mindspore.ops.stop_gradient.html)。 ## 使用方式 PyTorch:使用`torch.autograd.enable_grad`启用梯度计算,使用`torch.autograd.no_grad`禁用梯度计算。 MindSpore:使用[stop_gradient](https://mindspore.cn/docs/zh-CN/r2.0.0-alpha/api_python/ops/mindspore.ops.stop_gradient.html)禁止网络内的算子对梯度的影响。