快捷方式

dequantize_affine

torchao.quantization.dequantize_affine(input: Tensor, block_size: Tuple[int, ...], scale: Tensor, zero_point: Optional[Tensor], input_dtype: dtype, quant_min: Optional[Union[int, float]] = None, quant_max: Optional[Union[int, float]] = None, *, output_dtype: dtype = torch.float32) Tensor[原始碼]
引數:
  • input (torch.Tensor) – 量化張量,應與 dtype 引數匹配

  • block_size – (List[int]): 量化的粒度,這意味著共享相同 qparam 的張量元素的尺寸。例如,當尺寸與輸入張量維度相同時,我們使用逐張量量化。

  • scale (Tensor) – 仿射量化的量化引數

  • zero_point (Tensor) – 仿射量化的量化引數

  • input_dtype (torch.dtype) – 輸出張量的請求資料型別(例如,torch.uint8)

  • quant_min (Optional[int]) – 輸入張量的最小量化值

  • quant_max (Optional[int]) – 輸入張量的最大量化值

  • output_dtype (torch.dtype) – 輸出張量的資料型別,預設為 fp32

  • domain (zero_point 的預設值為整數) –

  • quantization (在反量化整數值時會加上 zero point) –

輸出

反量化的張量,具有請求的資料型別或 fp32

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源