評價此頁

torch.optim.adagrad.adagrad#

torch.optim.adagrad.adagrad(params, grads, state_sums, state_steps, fused=None, grad_scale=None, found_inf=None, has_sparse_grad=False, foreach=None, differentiable=False, has_complex=False, *, lr, weight_decay, lr_decay, eps, maximize)[原始碼]#

執行 Adagrad 演算法計算的功能 API。

有關詳細資訊,請參閱 Adagrad