快捷方式

FromIntXQuantizationAwareTrainingConfig

class torchao.quantization.qat.FromIntXQuantizationAwareTrainingConfig[source]

(已棄用) 請使用 QATConfig 代替。

用於將帶有偽量化模組(如 FakeQuantizedLinear()FakeQuantizedEmbedding())的模型轉換回帶有原始相應模組(無偽量化)的模型。此配置應與 quantize_() 一起使用。

使用示例

from torchao.quantization import quantize_
quantize_(
    model_with_fake_quantized_linears,
    FromIntXQuantizationAwareTrainingConfig(),
)

文件

訪問全面的 PyTorch 開發者文件

檢視文件

教程

為初學者和高階開發者提供深入的教程

檢視教程

資源

查詢開發資源並讓您的問題得到解答

檢視資源