快捷方式

DTLoss

class torchrl.objectives.DTLoss(*args, **kwargs)[原始碼]

TorchRL 對線上決策 Transformer 損失的實現。

“Decision Transformer: Reinforcement Learning via Sequence Modeling” <https://arxiv.org/abs/2106.01345> 中提出

引數:

actor_network (ProbabilisticActor) – 隨機策略

關鍵字引數:
  • loss_function (str) – 要使用的損失函式。預設為 "l2"

  • reduction (str, optional) – 指定應用於輸出的約簡:"none" | "mean" | "sum""none":不應用約簡,"mean":輸出的總和將除以輸出中的元素數量,"sum":將對輸出進行求和。預設為 "mean"

default_keys

別名:_AcceptedKeys

forward(tensordict: TensorDictBase = None) TensorDictBase[原始碼]

計算線上決策 Transformer 的損失。

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源