torch.nn.utils.parametrizations.weight_norm#
- torch.nn.utils.parametrizations.weight_norm(module, name='weight', dim=0)[原始碼]#
對給定模組中的引數應用權重歸一化。
權重歸一化是一種重新引數化方法,它將權重張量的幅度與其方向解耦。它用兩個引數替換由
name指定的引數:一個指定幅度,一個指定方向。預設情況下,當
dim=0時,範數是為每個輸出通道/平面獨立計算的。要計算整個權重張量的範數,請使用dim=None。參見 https://arxiv.org/abs/1602.07868
- 引數
- 返回
帶有權重歸一化鉤子的原始模組
示例
>>> m = weight_norm(nn.Linear(20, 40), name='weight') >>> m ParametrizedLinear( in_features=20, out_features=40, bias=True (parametrizations): ModuleDict( (weight): ParametrizationList( (0): _WeightNorm() ) ) ) >>> m.parametrizations.weight.original0.size() torch.Size([40, 1]) >>> m.parametrizations.weight.original1.size() torch.Size([40, 20])