評價此頁

torch.cuda.memory.reset_max_memory_cached#

torch.cuda.memory.reset_max_memory_cached(device=None)[原始碼]#

重置用於跟蹤給定裝置由快取分配器管理的 GPU 最大記憶體的起點。

有關詳細資訊,請參閱 max_memory_cached()

引數

device (torch.deviceint, 可選) – 選擇的裝置。如果 deviceNone(預設),則返回當前裝置(由 current_device() 指定)的統計資訊。

警告

此函式現在會呼叫 reset_peak_memory_stats(),該函式會重置 /所有/ 峰值記憶體統計資訊。

注意

有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理