注意
轉到末尾 以下載完整的示例程式碼。
學習基礎知識 || 快速入門 || 張量 || 資料集和資料載入器 || 變換 || 構建模型 || 自動求導 || 最佳化 || 儲存與載入模型
儲存和載入模型#
建立日期:2021年02月09日 | 最後更新:2025年09月25日 | 最後驗證:2024年11月05日
在本節中,我們將探討如何透過儲存、載入和執行模型預測來持久化模型狀態。
import torch
import torchvision.models as models
儲存和載入模型權重#
PyTorch 模型將其學習到的引數儲存在一個內部狀態字典中,稱為 state_dict。可以使用 torch.save 方法將它們持久化。
model = models.vgg16(weights='IMAGENET1K_V1')
torch.save(model.state_dict(), 'model_weights.pth')
Downloading: "https://download.pytorch.org/models/vgg16-397923af.pth" to /var/lib/ci-user/.cache/torch/hub/checkpoints/vgg16-397923af.pth
0%| | 0.00/528M [00:00<?, ?B/s]
8%|▊ | 40.2M/528M [00:00<00:01, 421MB/s]
16%|█▌ | 82.0M/528M [00:00<00:01, 430MB/s]
24%|██▎ | 125M/528M [00:00<00:00, 440MB/s]
32%|███▏ | 168M/528M [00:00<00:00, 444MB/s]
40%|████ | 211M/528M [00:00<00:00, 447MB/s]
48%|████▊ | 254M/528M [00:00<00:00, 448MB/s]
56%|█████▋ | 298M/528M [00:00<00:00, 449MB/s]
65%|██████▍ | 341M/528M [00:00<00:00, 450MB/s]
73%|███████▎ | 384M/528M [00:00<00:00, 451MB/s]
81%|████████ | 427M/528M [00:01<00:00, 452MB/s]
89%|████████▉ | 470M/528M [00:01<00:00, 452MB/s]
97%|█████████▋| 514M/528M [00:01<00:00, 452MB/s]
100%|██████████| 528M/528M [00:01<00:00, 448MB/s]
要載入模型權重,您需要先建立一個同模型的例項,然後使用 load_state_dict() 方法載入引數。
在下面的程式碼中,我們將 weights_only 設定為 True,以將反序列化期間執行的函式限制為僅載入權重所必需的函式。在載入權重時,將 weights_only 設定為 True 被認為是最佳實踐。
model = models.vgg16() # we do not specify ``weights``, i.e. create untrained model
model.load_state_dict(torch.load('model_weights.pth', weights_only=True))
model.eval()
VGG(
(features): Sequential(
(0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(1): ReLU(inplace=True)
(2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(3): ReLU(inplace=True)
(4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(6): ReLU(inplace=True)
(7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(8): ReLU(inplace=True)
(9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(11): ReLU(inplace=True)
(12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(13): ReLU(inplace=True)
(14): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(15): ReLU(inplace=True)
(16): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(17): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(18): ReLU(inplace=True)
(19): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(20): ReLU(inplace=True)
(21): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(22): ReLU(inplace=True)
(23): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(24): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(25): ReLU(inplace=True)
(26): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(27): ReLU(inplace=True)
(28): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(29): ReLU(inplace=True)
(30): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
)
(avgpool): AdaptiveAvgPool2d(output_size=(7, 7))
(classifier): Sequential(
(0): Linear(in_features=25088, out_features=4096, bias=True)
(1): ReLU(inplace=True)
(2): Dropout(p=0.5, inplace=False)
(3): Linear(in_features=4096, out_features=4096, bias=True)
(4): ReLU(inplace=True)
(5): Dropout(p=0.5, inplace=False)
(6): Linear(in_features=4096, out_features=1000, bias=True)
)
)
注意
在進行推理之前,請務必呼叫 model.eval() 方法以將 dropout 和 batch normalization 層設定為評估模式。否則將導致不一致的推理結果。
儲存和載入帶形狀的模型#
在載入模型權重時,我們需要先例項化模型類,因為類定義了網路的結構。如果我們想將此類的結構與模型一起儲存,那麼我們可以將 model(而不是 model.state_dict())傳遞給儲存函式。
torch.save(model, 'model.pth')
然後,我們可以按照下面的方法載入模型。
如 儲存和載入 torch.nn.Modules 中所述,儲存 state_dict 被認為是最佳實踐。但是,我們在下面使用了 weights_only=False,因為這涉及到載入模型,這是 torch.save 的一個遺留用例。
model = torch.load('model.pth', weights_only=False)
注意
此方法在序列化模型時使用 Python 的 pickle 模組,因此它依賴於在載入模型時可用實際的類定義。