論文の概要: Lossless Compression of Neural Network Components: Weights, Checkpoints, and K/V Caches in Low-Precision Formats
- arxiv url: http://arxiv.org/abs/2508.19263v1
- Date: Wed, 20 Aug 2025 12:46:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.323129
- Title: Lossless Compression of Neural Network Components: Weights, Checkpoints, and K/V Caches in Low-Precision Formats
- Title(参考訳): ニューラルネットワークコンポーネントのロスレス圧縮:低精度フォーマットにおけるウェイト,チェックポイント,K/Vキャッシュ
- Authors: Anat Heilper, Doron Singer,
- Abstract要約: 本研究では、ZipNNのアプローチをより高精度な浮動小数点点フォーマット、特にFP8とFP4に拡張する。
圧縮比はBF16が62%,FP8が83%であった。
また,キー値(K/V)キャッシュテンソルの圧縮性についても検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning models grow and deployment becomes more widespread, reducing the storage and transmission costs of neural network weights has become increasingly important. While prior work such as ZipNN has shown that lossless compression methods - particularly those based on Huffman encoding floating-point exponents can significantly reduce model sizes, these techniques have primarily been applied to higher-precision formats such as FP32 and BF16. In this work, we extend the ZipNN approach to lower-precision floating-point formats, specifically FP8 and FP4, which are gaining popularity for efficient inference. We design a compression method that separates and compresses the exponent and mantissa components independently using entropy coding. Our evaluation shows compression ratios up to 62% for BF16 and 83% for FP8. We also investigate the compressibility of key-value (K/V) cache tensors used in large language models (LLMs), finding that they, too, exhibit compressible patterns, enabling memory savings during deployment.
- Abstract(参考訳): ディープラーニングモデルが成長し、デプロイが広まり、ニューラルネットワーク重みのストレージと送信コストの削減がますます重要になっている。
ZipNNのような以前の研究は、特に浮動小数点指数を符号化するHuffmanに基づく圧縮手法はモデルサイズを大幅に削減できることを示したが、これらの手法は主にFP32やBF16のような高精度のフォーマットに適用されている。
本研究では、ZipNNのアプローチを、より高精度な浮動小数点形式(特にFP8とFP4)に拡張する。
エントロピー符号化を用いて指数成分と行列成分を独立に分離・圧縮する圧縮法を設計する。
圧縮比はBF16が62%,FP8が83%であった。
また、大言語モデル(LLM)で使用されるキー値(K/V)キャッシュテンソルの圧縮性についても検討し、それらも圧縮可能なパターンを示し、デプロイメント中にメモリの節約を可能にすることを発見した。
関連論文リスト
- ReCalKV: Low-Rank KV Cache Compression via Head Reordering and Offline Calibration [81.81027217759433]
大きな言語モデル(LLM)はキーバリュー(KV)キャッシュを保存するのに必要な過剰なメモリによって制約されることが多い。
近年,KVキャッシュの隠蔽次元の低減について検討されている。
本稿では,KVキャッシュの隠れ次元を削減した後学習KVキャッシュ圧縮手法ReCalKVを提案する。
論文 参考訳(メタデータ) (2025-05-30T08:49:27Z) - Optimization of embeddings storage for RAG systems using quantization and dimensionality reduction techniques [0.0]
本研究では,float8量子化により,性能劣化を最小限に抑えつつ,ストレージの4倍の低減を実現することを示す。
PCAは最も効果的な次元削減技術として出現する。
本稿では,最適構成を特定するために,性能記憶トレードオフ空間を可視化する手法を提案する。
論文 参考訳(メタデータ) (2025-04-30T18:20:16Z) - ZipNN: Lossless Compression for AI Models [10.111136691015554]
ZipNNはニューラルネットワークに適した無損失圧縮を提供する。
一般的なモデル(例えばLlama 3)では、ZipNNはバニラ圧縮よりも17%以上良いスペース節約を示している。
これらの手法は、Hugging Faceのような大きなモデルハブからダウンロードされたネットワークトラフィックを1ヶ月に1つ以上節約できると見積もっている。
論文 参考訳(メタデータ) (2024-11-07T23:28:23Z) - Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression [87.5604418100301]
キー値(KV)キャッシングは,大規模言語モデルの推論を高速化する重要な手法である。
既存の手法はしばしば精度を損なうか、キャリブレーションのために余分なデータを必要とする。
テンソル分解法に基づく新しいデータフリー低ビット量子化手法である textbfDecoQuant を導入する。
論文 参考訳(メタデータ) (2024-05-21T08:35:10Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - Compression strategies and space-conscious representations for deep
neural networks [0.3670422696827526]
近年のディープラーニングの進歩により、いくつかの実世界のアプリケーションで最先端のパフォーマンスを備えた強力な畳み込みニューラルネットワーク(CNN)が利用可能になった。
CNNには数百万のパラメータがあり、リソース制限のあるプラットフォームではデプロイできない。
本稿では,重み付けと量子化によるCNNの損失圧縮の影響について検討する。
論文 参考訳(メタデータ) (2020-07-15T19:41:19Z) - Training with Quantization Noise for Extreme Model Compression [57.51832088938618]
与えられたモデルサイズに対する精度を最大化しながら、コンパクトなモデルを作成するという問題に取り組む。
標準的な解決策は、トレーニング中に重みが定量化され、勾配がストレート・スルー推定器に近似される量子化意識訓練(Quantization Aware Training)でネットワークをトレーニングすることである。
本稿では, この手法を, 極端な圧縮法を用いて, int8 の固定点量子化を超えて機能するように拡張する。
論文 参考訳(メタデータ) (2020-04-15T20:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。