評價此頁

MemPool#

class torch.cuda.memory.MemPool(*args, **kwargs)[source]#

MemPool 代表快取分配器中的記憶體池。目前,它只是 CUDACachingAllocator 中維護的池物件的 ID。

引數
  • allocator (torch._C._cuda_CUDAAllocator, optional) – 一個 torch._C._cuda_CUDAAllocator 物件,可用於定義記憶體如何在池中分配。如果 allocatorNone(預設值),記憶體分配將遵循 CUDACachingAllocator 的預設/當前配置。

  • use_on_oom (bool) – 一個布林值,指示當池外的記憶體分配因記憶體不足(Out Of Memory)而失敗時,是否可以將此池用作最後手段。預設值為 False。

property allocator: Optional[_cuda_CUDAAllocator]#

返回 MemPool 將分配路由到的分配器。

property id: tuple[int, int]#

返回此池的 ID,為一個包含兩個整數的元組。

snapshot()[source]#

返回跨所有裝置的 CUDA 記憶體分配器池狀態的快照。

理解此函式的輸出需要熟悉記憶體分配器的內部機制。

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理

use_count()[source]#

返回此池的引用計數。

返回型別

int