快捷方式

RoboHiveEnv

torchrl.envs.RoboHiveEnv(*args, **kwargs)[原始碼]

RoboHive gym 環境的包裝器。

RoboHive 是一個使用 MuJoCo 物理引擎模擬的環境/任務集合,透過 OpenAI-Gym API 公開。

Github: https://github.com/vikashplus/robohive/

Doc: https://github.com/vikashplus/robohive/wiki

Paper: https://arxiv.org/abs/2310.06828

警告

RoboHive 需要 gym 0.13。

引數:
  • env_name (str) – 要構建的環境名稱。必須是 available_envs 之一

  • categorical_action_encoding (bool, optional) – 如果為 True,則分類規範將轉換為 TorchRL 等效項 (torchrl.data.Categorical),否則將使用獨熱編碼 (torchrl.data.OneHot)。預設為 False

關鍵字引數:
  • from_pixels (bool, optional) – 如果為 True,則會嘗試從環境中返回畫素觀察。預設情況下,這些觀察將被寫入 "pixels" 條目下。所使用的方法取決於 gym 的版本,並可能涉及 wrappers.pixel_observation.PixelObservationWrapper。預設為 False

  • pixels_only (bool, optional) – 如果設定為 True,將只返回畫素觀察(預設在輸出 tensordict 的 "pixels" 條目下)。如果設定為 False,當 from_pixels=True 時,將返回觀察(例如,狀態)和畫素。預設為 True

  • from_depths (bool, optional) – 如果為 True,將嘗試從環境中返回深度觀測。預設情況下,這些觀測將被寫入 "depths" 條目。需要 from_pixelsTrue。預設為 False

  • frame_skip (int, optional) – 如果提供,表示相同的動作需要重複多少步。返回的觀察值將是序列的最後一個觀察值,而獎勵將是跨步驟的獎勵總和。

  • device (torch.device, optional) – 如果提供,資料將被轉換到的裝置。預設為 torch.device("cpu")

  • batch_size (torch.Size, optional) – 由於該類不支援向量化環境,因此只有 torch.Size([]) 才能與 RoboHiveEnv 一起使用。要一次執行多個環境,請參閱 ParallelEnv

  • allow_done_after_reset (bool, optional) – 如果為 True,則允許在呼叫 reset() 後立即將環境設定為 done。預設為 False

變數:

available_envs (list) – 要構建的可用環境列表。

示例

>>> from torchrl.envs import RoboHiveEnv
>>> env = RoboHiveEnv(RoboHiveEnv.available_envs[0])
>>> env.rollout(3)

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源