no_grad#
- class torch.no_grad(orig_func=None)[source]#
停用梯度計算的上下文管理器。
停用梯度計算對於推理很有用,當你確定不會呼叫
Tensor.backward()時。它將減少那些原本會具有 requires_grad=True 的計算所佔用的記憶體。在此模式下,每個計算的結果都將具有 requires_grad=False,即使輸入具有 requires_grad=True。有一個例外!所有工廠函式,或者建立新 Tensor 並接受 requires_grad 引數的函式,將不受此模式的影響。
此上下文管理器是執行緒區域性(thread local)的;它不會影響其他執行緒中的計算。
也可作為裝飾器使用。
注意
No-grad 是幾種可以區域性啟用或停用梯度的機制之一,有關它們如何進行比較的更多資訊,請參見 區域性停用梯度計算。
注意
此 API 不適用於 前向模式 AD。如果要停用某個計算的前向 AD,可以解包你的雙精度張量。
- 示例:
>>> x = torch.tensor([1.], requires_grad=True) >>> with torch.no_grad(): ... y = x * 2 >>> y.requires_grad False >>> @torch.no_grad() ... def doubler(x): ... return x * 2 >>> z = doubler(x) >>> z.requires_grad False >>> @torch.no_grad() ... def tripler(x): ... return x * 3 >>> z = tripler(x) >>> z.requires_grad False >>> # factory function exception >>> with torch.no_grad(): ... a = torch.nn.Parameter(torch.rand(10)) >>> a.requires_grad True