• 文档 >
  • 自动微分包 - torch.autograd >
  • torch.autograd.graph.Node.register_hook
快捷键

torch.autograd.graph.Node.register_hook

abstract Node.register_hook(fn)[source][source]

注册反向钩子。

每次计算与节点相关的梯度时,都会调用该钩子。钩子应具有以下签名:

hook(grad_inputs: Tuple[Tensor], grad_outputs: Tuple[Tensor]) -> Tuple[Tensor] or None

钩子不应修改其参数,但可以可选地返回一个新的梯度,该梯度将用于替换 grad_inputs

此函数返回一个句柄,该句柄具有 handle.remove() 方法,用于从模块中移除钩子。

注意

请参阅向后钩子执行,以获取有关此钩子何时执行以及其执行相对于其他钩子的顺序的更多信息。

注意

在罕见的情况下,当钩子注册时节点已经开始执行,无法保证 grad_outputs 的内容(它可能是正常的或空的,这取决于其他因素)。钩子仍然可以可选地返回一个新的梯度,用于替换 grad_inputs ,而不依赖于 grad_outputs

示例:

>>> import torch
>>> a = torch.tensor([0., 0., 0.], requires_grad=True)
>>> b = a.clone()
>>> assert isinstance(b.grad_fn, torch.autograd.graph.Node)
>>> handle = b.grad_fn.register_hook(lambda gI, gO: (gO[0] * 2,))
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([2., 2., 2.])
>>> handle.remove() # Removes the hook
>>> a.grad = None
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([1., 1., 1.])
返回类型:

可移除句柄


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,主题由 Read the Docs 提供。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源