LLMの量子化(INT8/INT4)を理論から実装まで解説 2026年1月25日 Transformer 量子化(Quantization)は、ニューラルネットワークの重みや活性化を低精... INT4INT8LLM推論高速化深層学習量子化