評價此頁

torch.cuda.memory.max_memory_reserved#

torch.cuda.memory.max_memory_reserved(device=None)[源]#

返回給定裝置上快取分配器管理的最大 GPU 記憶體(以位元組為單位)。

預設情況下,此函式返回自程式開始以來快取的最大記憶體。 reset_peak_memory_stats() 可用於重置此指標跟蹤的起點。例如,這兩個函式可以測量訓練迴圈中每次迭代快取的最大記憶體量。

引數

device (torch.deviceint, 可選) – 選擇的裝置。如果 deviceNone(預設),則返回當前裝置(由 current_device() 指定)的統計資訊。

返回型別

int

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理