torch.cuda.memory.max_memory_allocated#
- torch.cuda.memory.max_memory_allocated(device=None)[source]#
返回給定裝置上張量佔用的最大 GPU 記憶體(以位元組為單位)。
預設情況下,此函式返回自程式開始以來的峰值分配記憶體。可以使用
reset_peak_memory_stats()來重置此度量標準的跟蹤起始點。例如,這兩個函式可以測量訓練迴圈中每次迭代的峰值分配記憶體使用情況。- 引數
device (torch.device 或 int, 可選) – 選擇的裝置。如果
device為None(預設),則返回當前裝置(由current_device()指定)的統計資訊。- 返回型別
注意
有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理。