評價此頁

torch.optim 中的別名#

建立日期:2025年7月18日 | 最後更新日期:2025年7月18日

以下是在巢狀名稱空間中定義的與torch.optim中對應項的別名。對於這些API中的任何一個,都可以隨意使用torch.optim頂層版本,例如torch.optim.Adam,或者巢狀版本torch.optim.adam.Adam

Adadelta

實現了 Adadelta 演算法。

adadelta

執行Adadelta演算法計算的函式式API。

Adagrad

實現了 Adagrad 演算法。

adagrad

執行Adagrad演算法計算的函式式API。

Adam

實現了 Adam 演算法。

adam

執行Adam演算法計算的函式式API。

Adamax

實現了 Adamax 演算法(基於無窮範數的 Adam 變體)。

adamax

執行adamax演算法計算的函式式API。

AdamW

實現了 AdamW 演算法,其中權重衰減不累積到動量或方差中。

adamw

執行AdamW演算法計算的函式式API。

ASGD

實現了平均隨機梯度下降。

asgd

執行asgd演算法計算的函式式API。

LBFGS

實現了 L-BFGS 演算法。

NAdam演算法的實現。

NAdam

實現了 NAdam 演算法。

nadam

執行NAdam演算法計算的函式式API。

RAdam演算法的實現。

RAdam

實現了 RAdam 演算法。

radam

執行RAdam演算法計算的函式式API。

RMSprop演算法的實現。

RMSprop

實現了 RMSprop 演算法。

rmsprop

執行rmsprop演算法計算的函式式API。

Resilient backpropagation的實現。

Rprop

實現了彈性反向傳播演算法。

rprop

執行rprop演算法計算的函式式API。

Stochastic Gradient Descent最佳化器的實現。

SGD

實現了隨機梯度下降(可選帶動量)。

sgd

執行SGD演算法計算的函式式API。

SparseAdam

SparseAdam實現了Adam演算法的掩碼版本,適用於稀疏梯度。