torch.autograd.graph.Node.register_hook¶
- abstract Node.register_hook(fn)[source][source]¶
注册反向钩子。
每次计算与节点相关的梯度时,都会调用该钩子。钩子应具有以下签名:
hook(grad_inputs: Tuple[Tensor], grad_outputs: Tuple[Tensor]) -> Tuple[Tensor] or None
钩子不应修改其参数,但可以可选地返回一个新的梯度,该梯度将用于替换
grad_inputs
。此函数返回一个句柄,该句柄具有
handle.remove()
方法,用于从模块中移除钩子。注意
请参阅向后钩子执行,以获取有关此钩子何时执行以及其执行相对于其他钩子的顺序的更多信息。
注意
在罕见的情况下,当钩子注册时节点已经开始执行,无法保证
grad_outputs
的内容(它可能是正常的或空的,这取决于其他因素)。钩子仍然可以可选地返回一个新的梯度,用于替换grad_inputs
,而不依赖于grad_outputs
。示例:
>>> import torch >>> a = torch.tensor([0., 0., 0.], requires_grad=True) >>> b = a.clone() >>> assert isinstance(b.grad_fn, torch.autograd.graph.Node) >>> handle = b.grad_fn.register_hook(lambda gI, gO: (gO[0] * 2,)) >>> b.sum().backward(retain_graph=True) >>> print(a.grad) tensor([2., 2., 2.]) >>> handle.remove() # Removes the hook >>> a.grad = None >>> b.sum().backward(retain_graph=True) >>> print(a.grad) tensor([1., 1., 1.])
- 返回类型:
可移除句柄