torch.cuda.memory.reset_max_memory_cached#
- torch.cuda.memory.reset_max_memory_cached(device=None)[原始碼]#
重置用於跟蹤給定裝置由快取分配器管理的 GPU 最大記憶體的起點。
有關詳細資訊,請參閱
max_memory_cached()。- 引數
device (torch.device 或 int, 可選) – 選擇的裝置。如果
device為None(預設),則返回當前裝置(由current_device()指定)的統計資訊。
警告
此函式現在會呼叫
reset_peak_memory_stats(),該函式會重置 /所有/ 峰值記憶體統計資訊。注意
有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理。