注意
轉到末尾 下載完整的示例程式碼。
瞭解基礎知識 || 快速入門 || 張量 || 資料集 & 資料載入器 || Transforms || 構建模型 || Autograd || 最佳化 || 儲存 & 載入模型
轉換#
建立時間:2021 年 2 月 9 日 | 最後更新:2021 年 8 月 11 日 | 最後驗證:未經驗證
資料並不總是以機器學習演算法訓練所需的最終處理形式提供。我們使用 transforms 來對資料進行一些操作,使其適合訓練。
所有 TorchVision 資料集都有兩個引數 - transform 用於修改特徵,target_transform 用於修改標籤 - 它們接受包含轉換邏輯的可呼叫物件。 torchvision.transforms 模組提供了許多常用的 transforms。
FashionMNIST 的特徵是 PIL Image 格式,標籤是整數。為了訓練,我們需要將特徵轉換為歸一化的張量,並將標籤轉換為獨熱編碼的張量。為了實現這些轉換,我們使用 ToTensor 和 Lambda。
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
ds = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=ToTensor(),
target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)
0%| | 0.00/26.4M [00:00<?, ?B/s]
0%| | 65.5k/26.4M [00:00<01:12, 361kB/s]
1%| | 229k/26.4M [00:00<00:38, 678kB/s]
3%|▎ | 918k/26.4M [00:00<00:12, 2.09MB/s]
14%|█▍ | 3.67M/26.4M [00:00<00:03, 7.22MB/s]
36%|███▋ | 9.63M/26.4M [00:00<00:01, 16.4MB/s]
60%|█████▉ | 15.7M/26.4M [00:01<00:00, 22.2MB/s]
82%|████████▏ | 21.6M/26.4M [00:01<00:00, 25.4MB/s]
100%|██████████| 26.4M/26.4M [00:01<00:00, 19.2MB/s]
0%| | 0.00/29.5k [00:00<?, ?B/s]
100%|██████████| 29.5k/29.5k [00:00<00:00, 323kB/s]
0%| | 0.00/4.42M [00:00<?, ?B/s]
1%|▏ | 65.5k/4.42M [00:00<00:12, 359kB/s]
5%|▌ | 229k/4.42M [00:00<00:06, 675kB/s]
20%|██ | 885k/4.42M [00:00<00:01, 2.01MB/s]
81%|████████ | 3.57M/4.42M [00:00<00:00, 7.02MB/s]
100%|██████████| 4.42M/4.42M [00:00<00:00, 6.03MB/s]
0%| | 0.00/5.15k [00:00<?, ?B/s]
100%|██████████| 5.15k/5.15k [00:00<00:00, 54.0MB/s]
ToTensor()#
ToTensor 將 PIL 影像或 NumPy ndarray 轉換為 FloatTensor。並將影像的畫素強度值縮放到 [0., 1.] 範圍。
Lambda Transforms#
Lambda transforms 應用任何使用者定義的 lambda 函式。在這裡,我們定義了一個函式來將整數轉換為獨熱編碼的張量。它首先建立一個大小為 10(我們資料集中標籤的數量)的零張量,並呼叫 scatter_,該函式在由標籤 y 給出的索引處分配 value=1。
target_transform = Lambda(lambda y: torch.zeros(
10, dtype=torch.float).scatter_(dim=0, index=torch.tensor(y), value=1))
進一步閱讀#
指令碼總執行時間: (0 分 4.404 秒)