• 文档 >
  • torch >
  • no_grad
快捷键

no_grad ¬

class torch.no_grad(orig_func=None)[source][source] ¬

禁用梯度计算的上下文管理器。

禁用梯度计算对于推理很有用,当你确定不会调用 Tensor.backward() 时。这将减少需要 requires_grad=True 的计算内存消耗。

在这种模式下,每次计算的输出都将具有 requires_grad=False,即使输入具有 requires_grad=True。有一个例外!所有工厂函数,或者创建新 Tensor 并接受 requires_grad 参数的函数,将不受此模式的影响。

此上下文管理器是线程局部;它不会影响其他线程的计算。

同时也是一个装饰器。

注意

无梯度是几种可以局部启用或禁用梯度的机制之一,有关它们如何比较的更多信息,请参阅局部禁用梯度计算。

注意

此 API 不适用于前向模式 AD。如果你想要禁用计算的向前 AD,你可以解包你的双张量。

示例::
>>> x = torch.tensor([1.], requires_grad=True)
>>> with torch.no_grad():
...     y = x * 2
>>> y.requires_grad
False
>>> @torch.no_grad()
... def doubler(x):
...     return x * 2
>>> z = doubler(x)
>>> z.requires_grad
False
>>> @torch.no_grad()
... def tripler(x):
...     return x * 3
>>> z = tripler(x)
>>> z.requires_grad
False
>>> # factory function exception
>>> with torch.no_grad():
...     a = torch.nn.Parameter(torch.rand(10))
>>> a.requires_grad
True

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,并使用 Read the Docs 提供的主题。

文档

PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源