論文の概要: Quantitative Analysis of Performance Drop in DeepSeek Model Quantization
- arxiv url: http://arxiv.org/abs/2505.02390v1
- Date: Mon, 05 May 2025 06:25:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.573421
- Title: Quantitative Analysis of Performance Drop in DeepSeek Model Quantization
- Title(参考訳): ディープシークモデル量子化における性能低下の定量的解析
- Authors: Enbo Zhao, Yi Shen, Shuming Shi, Jieyun Huang, Zhihao Chen, Ning Wang, Siqi Xiao, Jian Zhang, Kai Wang, Shiguo Lian,
- Abstract要約: DeepSeek-R1とV3のパフォーマンスは、量子化後にどうなるのかは不明だ。
本技術報告では,DeepSeekモデルスペクトル全体にわたるマルチビット幅量子化の定量的評価を行った。
- 参考スコア(独自算出の注目度): 29.67319248139547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there is a high demand for deploying DeepSeek-R1 and V3 locally, possibly because the official service often suffers from being busy and some organizations have data privacy concerns. While single-machine deployment offers infrastructure simplicity, the models' 671B FP8 parameter configuration exceeds the practical memory limits of a standard 8-GPU machine. Quantization is a widely used technique that helps reduce model memory consumption. However, it is unclear what the performance of DeepSeek-R1 and V3 will be after being quantized. This technical report presents the first quantitative evaluation of multi-bitwidth quantization across the complete DeepSeek model spectrum. Key findings reveal that 4-bit quantization maintains little performance degradation versus FP8 while enabling single-machine deployment on standard NVIDIA GPU devices. We further propose DQ3_K_M, a dynamic 3-bit quantization method that significantly outperforms traditional Q3_K_M variant on various benchmarks, which is also comparable with 4-bit quantization (Q4_K_M) approach in most tasks. Moreover, DQ3_K_M supports single-machine deployment configurations for both NVIDIA H100/A100 and Huawei 910B. Our implementation of DQ3\_K\_M is released at https://github.com/UnicomAI/DeepSeek-Eval, containing optimized 3-bit quantized variants of both DeepSeek-R1 and DeepSeek-V3.
- Abstract(参考訳): 最近、DepSeek-R1とV3をローカルにデプロイする需要が高まっている。
単一マシンのデプロイはインフラストラクチャの単純さを提供するが、モデルの671B FP8パラメータ設定は標準の8GPUマシンのメモリ限界を超えている。
量子化(quantization)は、モデルメモリ消費を減らすために広く使われている技術である。
しかし、DeepSeek-R1とV3の量子化後の性能は不透明である。
本技術報告では,DeepSeekモデルスペクトル全体にわたるマルチビット幅量子化の定量的評価を行った。
主要な発見は、4ビット量子化が標準的なNVIDIA GPUデバイスでの単一マシンのデプロイを可能にしながら、FP8に比べてパフォーマンスの低下をほとんど維持していないことを示している。
さらに,DQ3_K_Mを提案する。DQ3_K_Mは,様々なベンチマークにおいて従来のQ3_K_M変種を著しく上回り,多くのタスクにおいて4ビット量子化(Q4_K_M)手法に匹敵する。
さらに、DQ3_K_MはNVIDIA H100/A100とHuawei 910Bの両方のシングルマシンデプロイメント構成をサポートする。
DQ3\_K\_Mの実装はhttps://github.com/UnicomAI/DeepSeek-Evalで公開されています。
関連論文リスト
- SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - Leveraging Automated Mixed-Low-Precision Quantization for tiny edge
microcontrollers [76.30674794049293]
本稿では、HAQフレームワークに基づく自動混合精度量子化フローを提案するが、MCUデバイスのメモリおよび計算特性に特化している。
具体的には、強化学習エージェントは、個々の重みとアクティベーションテンソルの2, 4, 8ビットのうち、最高の均一量子化レベルを探索する。
重量のみの量子化のために2MBに制限されたMCUクラスのメモリが与えられた場合、混合精度エンジンによって生成された圧縮されたモデルは、最先端のソリューションと同じくらい正確である。
論文 参考訳(メタデータ) (2020-08-12T06:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。