評價此頁

no_grad#

class torch.no_grad(orig_func=None)[source]#

停用梯度計算的上下文管理器。

停用梯度計算對於推理很有用,當你確定不會呼叫 Tensor.backward() 時。它將減少那些原本會具有 requires_grad=True 的計算所佔用的記憶體。

在此模式下,每個計算的結果都將具有 requires_grad=False,即使輸入具有 requires_grad=True。有一個例外!所有工廠函式,或者建立新 Tensor 並接受 requires_grad 引數的函式,將不受此模式的影響。

此上下文管理器是執行緒區域性(thread local)的;它不會影響其他執行緒中的計算。

也可作為裝飾器使用。

注意

No-grad 是幾種可以區域性啟用或停用梯度的機制之一,有關它們如何進行比較的更多資訊,請參見 區域性停用梯度計算

注意

此 API 不適用於 前向模式 AD。如果要停用某個計算的前向 AD,可以解包你的雙精度張量。

示例:
>>> x = torch.tensor([1.], requires_grad=True)
>>> with torch.no_grad():
...     y = x * 2
>>> y.requires_grad
False
>>> @torch.no_grad()
... def doubler(x):
...     return x * 2
>>> z = doubler(x)
>>> z.requires_grad
False
>>> @torch.no_grad()
... def tripler(x):
...     return x * 3
>>> z = tripler(x)
>>> z.requires_grad
False
>>> # factory function exception
>>> with torch.no_grad():
...     a = torch.nn.Parameter(torch.rand(10))
>>> a.requires_grad
True