BraxEnv¶
- torchrl.envs.BraxEnv(*args, **kwargs)[原始碼]¶
使用環境名稱構建的 Google Brax 環境包裝器。
Brax 提供了一個基於 Jax 的向量化和可微分模擬框架。TorchRL 的包裝器會產生一些用於 jax-to-torch 轉換的開銷,但仍然可以在模擬軌跡之上構建計算圖,從而允許透過 rollout 進行反向傳播。
GitHub: https://github.com/google/brax
論文: https://arxiv.org/abs/2106.13281
- 引數:
env_name (str) – 要包裝的環境的環境名稱。必須是
available_envs的一部分。categorical_action_encoding (bool, optional) – 如果為
True,則分類規範將轉換為 TorchRL 等效項 (torchrl.data.Categorical),否則將使用獨熱編碼 (torchrl.data.OneHot)。預設為False。cache_clear_frequency (int, optional) – 自動每 N 步清除 JAX 的內部快取,以防止在使用
requires_grad=True時出現記憶體洩漏。預設為 False(停用自動快取清除)。
- 關鍵字引數:
from_pixels (bool, optional) – 尚不支援。
frame_skip (int, optional) – 如果提供,表示相同的動作需要重複多少步。返回的觀察值將是序列的最後一個觀察值,而獎勵將是跨步驟的獎勵總和。
device (torch.device, optional) – 如果提供,資料將被轉換到的裝置。預設為
torch.device("cpu")。batch_size (torch.Size, optional) – 環境的批次大小。在
brax中,這表示向量化環境的數量。預設為torch.Size([])。allow_done_after_reset (bool, optional) – 如果為
True,則允許在呼叫reset()後立即將環境設定為done。預設為False。
- 變數:
available_envs – 可用於構建的環境
示例
>>> from torchrl.envs import BraxEnv >>> import torch >>> device = "cuda" if torch.cuda.is_available() else "cpu" >>> env = BraxEnv("ant", device=device) >>> env.set_seed(0) >>> td = env.reset() >>> td["action"] = env.action_spec.rand() >>> td = env.step(td) >>> print(td) TensorDict( fields={ action: Tensor(torch.Size([8]), dtype=torch.float32), done: Tensor(torch.Size([1]), dtype=torch.bool), next: TensorDict( fields={ observation: Tensor(torch.Size([87]), dtype=torch.float32)}, batch_size=torch.Size([]), device=cpu, is_shared=False), observation: Tensor(torch.Size([87]), dtype=torch.float32), reward: Tensor(torch.Size([1]), dtype=torch.float32), state: TensorDict(...)}, batch_size=torch.Size([]), device=cpu, is_shared=False) >>> print(env.available_envs) ['acrobot', 'ant', 'fast', 'fetch', ...]
為了利用 Brax 的優勢,通常會同時執行多個環境。在下面的示例中,我們迭代地測試不同的批次大小,並報告短 rollout 的執行時間
示例
>>> import torch >>> from torch.utils.benchmark import Timer >>> device = "cuda" if torch.cuda.is_available() else "cpu" >>> for batch_size in [4, 16, 128]: ... timer = Timer(''' ... env.rollout(100) ... ''', ... setup=f''' ... from torchrl.envs import BraxEnv ... env = BraxEnv("ant", batch_size=[{batch_size}], device="{device}") ... env.set_seed(0) ... env.rollout(2) ... ''') ... print(batch_size, timer.timeit(10)) 4 env.rollout(100) setup: [...] 310.00 ms 1 measurement, 10 runs , 1 thread
16 env.rollout(100) 設定: […] 268.46 毫秒 1 次測量, 10 次執行, 1 個執行緒
128 env.rollout(100) 設定: […] 433.80 毫秒 1 次測量, 10 次執行, 1 個執行緒
可以對 rollout 進行反向傳播並直接最佳化策略
>>> from torchrl.envs import BraxEnv >>> from tensordict.nn import TensorDictModule >>> from torch import nn >>> import torch >>> >>> env = BraxEnv("ant", batch_size=[10], requires_grad=True, cache_clear_frequency=100) >>> env.set_seed(0) >>> torch.manual_seed(0) >>> policy = TensorDictModule(nn.Linear(27, 8), in_keys=["observation"], out_keys=["action"]) >>> >>> td = env.rollout(10, policy) >>> >>> td["next", "reward"].mean().backward(retain_graph=True) >>> print(policy.module.weight.grad.norm()) tensor(213.8605)