快捷方式

torchrl.trainers.algorithms.configs.utils.AdamWConfig

class torchrl.trainers.algorithms.configs.utils.AdamWConfig(lr: float = 0.001, betas: tuple[float, float] = (0.9, 0.999), eps: float = 1e-08, weight_decay: float = 0.01, amsgrad: bool = False, maximize: bool = False, foreach: bool | None = None, capturable: bool = False, differentiable: bool = False, fused: bool | None = None, _target_: str = 'torch.optim.AdamW', _partial_: bool = True)[原始碼]

AdamW 最佳化器的配置。

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源