快捷方式

BatchRenorm1d

class torchrl.modules.BatchRenorm1d(num_features: int, *, momentum: float = 0.01, eps: float = 1e-05, max_r: float = 3.0, max_d: float = 5.0, warmup_steps: int = 10000, smooth: bool = False)[原始碼]

BatchRenorm 模組 (https://arxiv.org/abs/1702.03275)。

程式碼改編自 https://github.com/google-research/corenet

BatchRenorm 是標準 BatchNorm 的增強版本。與 BatchNorm 不同,它在初始預熱階段後利用執行統計資料來規範化批次。這種方法減少了在長時間訓練期間可能出現的“異常值”批次的影響,使得 BatchRenorm 對於長時間訓練更加魯棒。

在預熱階段,BatchRenorm 的功能與 BatchNorm 層相同。

引數:

num_features (int) – 輸入張量的特徵數量。

關鍵字引數:
  • momentum (float, optional) – 用於計算執行均值和方差的動量因子。預設為 0.01

  • eps (float, optional) – 新增到方差中的小值,以避免除以零。預設為 1e-5

  • max_r (float, optional) – 縮放因子 r 的最大值。預設為 3.0

  • max_d (float, optional) – 偏置因子 d 的最大值。預設為 5.0

  • warmup_steps (int, optional) – 執行均值和方差的預熱步數。預設為 10000

  • smooth (bool, optional) – 如果為 True,則行為從常規 batch-norm(當 iter=0 時)平滑地過渡到 batch-renorm(當 iter=warmup_steps 時)。否則,當 iter=warmup_steps 時,行為將從 batch-norm 過渡到 batch-renorm。預設為 False

forward(x: Tensor) Tensor[原始碼]

定義每次呼叫時執行的計算。

所有子類都應重寫此方法。

注意

儘管前向傳播的實現需要在此函式中定義,但您應該在之後呼叫 Module 例項而不是此函式,因為前者會處理註冊的鉤子,而後者則會靜默忽略它們。

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源