快捷方式

dense_stack_tds

class tensordict.dense_stack_tds(td_list: Union[Sequence[TensorDictBase], LazyStackedTensorDict], dim: Optional[int] = None)

密集堆疊一系列 TensorDictBase 物件(或一個 LazyStackedTensorDict),前提是它們具有相同的結構。

此函式使用一系列 TensorDictBase(直接傳遞或從 LazyStackedTensorDict 獲取)進行呼叫。它不會呼叫 torch.stack(td_list)(這將返回一個 LazyStackedTensorDict),而是展開輸入列表的第一個元素,並將輸入列表堆疊在該元素上。這僅在輸入列表的所有元素都具有相同結構時才有效。TensorDictBase 返回的物件將具有與輸入列表元素相同的型別。

當需要堆疊的 TensorDictBase 物件中有些是 LazyStackedTensorDict,或者其條目(或巢狀條目)中包含 LazyStackedTensorDict 時,此函式非常有用。在這些情況下,呼叫 torch.stack(td_list).to_tensordict() 是不可行的。因此,此函式提供了一種替代方法來密集堆疊提供的列表。

引數:
  • td_list (TensorDictBase 列表LazyStackedTensorDict) – 要堆疊的 tds。

  • dim (int, optional) – 要堆疊的維度。如果 td_list 是 LazyStackedTensorDict,則會自動檢索。

示例

>>> import torch
>>> from tensordict import TensorDict
>>> from tensordict import dense_stack_tds
>>> from tensordict.tensordict import assert_allclose_td
>>> td0 = TensorDict({"a": torch.zeros(3)},[])
>>> td1 = TensorDict({"a": torch.zeros(4), "b": torch.zeros(2)},[])
>>> td_lazy = torch.stack([td0, td1], dim=0)
>>> td_container = TensorDict({"lazy": td_lazy}, [])
>>> td_container_clone = td_container.clone()
>>> td_stack = torch.stack([td_container, td_container_clone], dim=0)
>>> td_stack
LazyStackedTensorDict(
    fields={
        lazy: LazyStackedTensorDict(
            fields={
                a: Tensor(shape=torch.Size([2, 2, -1]), device=cpu, dtype=torch.float32, is_shared=False)},
            exclusive_fields={
            },
            batch_size=torch.Size([2, 2]),
            device=None,
            is_shared=False,
            stack_dim=0)},
    exclusive_fields={
    },
    batch_size=torch.Size([2]),
    device=None,
    is_shared=False,
    stack_dim=0)
>>> td_stack = dense_stack_tds(td_stack) # Automatically use the LazyStackedTensorDict stack_dim
TensorDict(
    fields={
        lazy: LazyStackedTensorDict(
            fields={
                a: Tensor(shape=torch.Size([2, 2, -1]), device=cpu, dtype=torch.float32, is_shared=False)},
            exclusive_fields={
                1 ->
                    b: Tensor(shape=torch.Size([2, 2]), device=cpu, dtype=torch.float32, is_shared=False)},
            batch_size=torch.Size([2, 2]),
            device=None,
            is_shared=False,
            stack_dim=1)},
    batch_size=torch.Size([2]),
    device=None,
    is_shared=False)
# Note that
# (1) td_stack is now a TensorDict
# (2) this has pushed the stack_dim of "lazy" (0 -> 1)
# (3) this has revealed the exclusive keys.
>>> assert_allclose_td(td_stack, dense_stack_tds([td_container, td_container_clone], dim=0))
# This shows it is the same to pass a list or a LazyStackedTensorDict

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源