FromIntXQuantizationAwareTrainingConfig¶
- class torchao.quantization.qat.FromIntXQuantizationAwareTrainingConfig[source]¶
(已棄用) 請使用
QATConfig代替。用於將帶有偽量化模組(如
FakeQuantizedLinear()和FakeQuantizedEmbedding())的模型轉換回帶有原始相應模組(無偽量化)的模型。此配置應與quantize_()一起使用。使用示例
from torchao.quantization import quantize_ quantize_( model_with_fake_quantized_linears, FromIntXQuantizationAwareTrainingConfig(), )