評價此頁

torch.cuda.memory.empty_cache#

torch.cuda.memory.empty_cache()[原始碼]#

釋放快取分配器當前持有的所有未佔用快取記憶體,以便其他 GPU 應用程式可以使用這些記憶體,並且這些記憶體可以在 nvidia-smi 中可見。

注意

empty_cache() 不會增加 PyTorch 可用的 GPU 記憶體量。但是,在某些情況下,它有助於減少 GPU 記憶體碎片。有關 GPU 記憶體管理的更多詳細資訊,請參閱 記憶體管理