RoboHiveEnv¶
- torchrl.envs.RoboHiveEnv(*args, **kwargs)[原始碼]¶
RoboHive gym 環境的包裝器。
RoboHive 是一個使用 MuJoCo 物理引擎模擬的環境/任務集合,透過 OpenAI-Gym API 公開。
Github: https://github.com/vikashplus/robohive/
Doc: https://github.com/vikashplus/robohive/wiki
Paper: https://arxiv.org/abs/2310.06828
警告
RoboHive 需要 gym 0.13。
- 引數:
env_name (str) – 要構建的環境名稱。必須是
available_envs之一categorical_action_encoding (bool, optional) – 如果為
True,則分類規範將轉換為 TorchRL 等效項 (torchrl.data.Categorical),否則將使用獨熱編碼 (torchrl.data.OneHot)。預設為False。
- 關鍵字引數:
from_pixels (bool, optional) – 如果為
True,則會嘗試從環境中返回畫素觀察。預設情況下,這些觀察將被寫入"pixels"條目下。所使用的方法取決於 gym 的版本,並可能涉及wrappers.pixel_observation.PixelObservationWrapper。預設為False。pixels_only (bool, optional) – 如果設定為
True,將只返回畫素觀察(預設在輸出 tensordict 的"pixels"條目下)。如果設定為False,當from_pixels=True時,將返回觀察(例如,狀態)和畫素。預設為True。from_depths (bool, optional) – 如果為
True,將嘗試從環境中返回深度觀測。預設情況下,這些觀測將被寫入"depths"條目。需要from_pixels為True。預設為False。frame_skip (int, optional) – 如果提供,表示相同的動作需要重複多少步。返回的觀察值將是序列的最後一個觀察值,而獎勵將是跨步驟的獎勵總和。
device (torch.device, optional) – 如果提供,資料將被轉換到的裝置。預設為
torch.device("cpu")。batch_size (torch.Size, optional) – 由於該類不支援向量化環境,因此只有
torch.Size([])才能與RoboHiveEnv一起使用。要一次執行多個環境,請參閱ParallelEnv。allow_done_after_reset (bool, optional) – 如果為
True,則允許在呼叫reset()後立即將環境設定為done。預設為False。
- 變數:
available_envs (list) – 要構建的可用環境列表。
示例
>>> from torchrl.envs import RoboHiveEnv >>> env = RoboHiveEnv(RoboHiveEnv.available_envs[0]) >>> env.rollout(3)