no_grad ¬
- class torch.no_grad(orig_func=None)[source][source] ¬
禁用梯度计算的上下文管理器。
禁用梯度计算对于推理很有用,当你确定不会调用
Tensor.backward()
时。这将减少需要 requires_grad=True 的计算内存消耗。在这种模式下,每次计算的输出都将具有 requires_grad=False,即使输入具有 requires_grad=True。有一个例外!所有工厂函数,或者创建新 Tensor 并接受 requires_grad 参数的函数,将不受此模式的影响。
此上下文管理器是线程局部;它不会影响其他线程的计算。
同时也是一个装饰器。
注意
无梯度是几种可以局部启用或禁用梯度的机制之一,有关它们如何比较的更多信息,请参阅局部禁用梯度计算。
注意
此 API 不适用于前向模式 AD。如果你想要禁用计算的向前 AD,你可以解包你的双张量。
- 示例::
>>> x = torch.tensor([1.], requires_grad=True) >>> with torch.no_grad(): ... y = x * 2 >>> y.requires_grad False >>> @torch.no_grad() ... def doubler(x): ... return x * 2 >>> z = doubler(x) >>> z.requires_grad False >>> @torch.no_grad() ... def tripler(x): ... return x * 3 >>> z = tripler(x) >>> z.requires_grad False >>> # factory function exception >>> with torch.no_grad(): ... a = torch.nn.Parameter(torch.rand(10)) >>> a.requires_grad True