評價此頁

torch.autograd.graph.Node.register_hook#

abstract Node.register_hook(fn)[原始碼]#

註冊一個反向傳播鉤子。

每次計算 Node 的梯度時都會呼叫此鉤子。鉤子應具有以下簽名:

hook(grad_inputs: Tuple[Tensor], grad_outputs: Tuple[Tensor]) -> Tuple[Tensor] or None

鉤子不應該修改其引數,但可以選擇返回一個新的梯度,該梯度將替代 `grad_inputs`。

此函式返回一個控制代碼,其中包含一個方法 handle.remove(),用於從模組中移除該鉤子。

注意

有關此 hook 何時執行以及如何與其他 hook 排序執行的資訊,請參閱 反向傳播 hook 的執行

注意

在 Node 已開始執行的極少數情況下注冊鉤子,不能保證 `grad_outputs` 的內容(它可能如常或為空,取決於其他因素)。鉤子仍可以選擇返回一個新的梯度來替代 `grad_inputs`,這與 `grad_outputs` 無關。

示例

>>> import torch
>>> a = torch.tensor([0., 0., 0.], requires_grad=True)
>>> b = a.clone()
>>> assert isinstance(b.grad_fn, torch.autograd.graph.Node)
>>> handle = b.grad_fn.register_hook(lambda gI, gO: (gO[0] * 2,))
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([2., 2., 2.])
>>> handle.remove() # Removes the hook
>>> a.grad = None
>>> b.sum().backward(retain_graph=True)
>>> print(a.grad)
tensor([1., 1., 1.])
返回型別

RemovableHandle