(논문 요약) GPTQ: ACCURATE POST-TRAINING QUANTIZATION FOR GENERATIVE PRE-TRAINED TRANSFORMERS (paper)
핵심 내용
- Optimal Brain Quantization (OBQ): greedy quantization
- greedy 하게 quantize 할 weight 를 고른뒤,
- 발생하는 error 를 quantize 안된 weights 가 분담.
- OBQ 의 efficiency 를 높임.
- block 단위로 quantize.
- numerical stability 를 위하여 Hessian 을 Cholesky form 으로 변환하여 사용.
