論文の概要: Variable-Rate Learned Image Compression with Multi-Objective
Optimization and Quantization-Reconstruction Offsets
- arxiv url: http://arxiv.org/abs/2402.18930v1
- Date: Thu, 29 Feb 2024 07:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:44:55.046092
- Title: Variable-Rate Learned Image Compression with Multi-Objective
Optimization and Quantization-Reconstruction Offsets
- Title(参考訳): 多目的最適化と量子化再構成オフセットを用いた可変レート学習画像圧縮
- Authors: Fatih Kamisli, Fabien Racape, Hyomin Choi
- Abstract要約: 本論文は,すべての潜伏テンソル要素の均一な量子化を行うために,単一量子化ステップサイズを変化させる従来のアプローチに従う。
可変レート圧縮性能を改善するために3つの改良が提案されている。
得られた可変レート圧縮結果から,複数のモデルのトレーニングと比較すると,圧縮性能の低下は無視できるか最小かのどちらかを示す。
- 参考スコア(独自算出の注目度): 8.670873561640903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving successful variable bitrate compression with computationally simple
algorithms from a single end-to-end learned image or video compression model
remains a challenge. Many approaches have been proposed, including conditional
auto-encoders, channel-adaptive gains for the latent tensor or uniformly
quantizing all elements of the latent tensor. This paper follows the
traditional approach to vary a single quantization step size to perform uniform
quantization of all latent tensor elements. However, three modifications are
proposed to improve the variable rate compression performance. First, multi
objective optimization is used for (post) training. Second, a
quantization-reconstruction offset is introduced into the quantization
operation. Third, variable rate quantization is used also for the hyper latent.
All these modifications can be made on a pre-trained single-rate compression
model by performing post training. The algorithms are implemented into three
well-known image compression models and the achieved variable rate compression
results indicate negligible or minimal compression performance loss compared to
training multiple models. (Codes will be shared at
https://github.com/InterDigitalInc/CompressAI)
- Abstract(参考訳): 単一のエンドツーエンドの学習画像やビデオ圧縮モデルから計算学的に単純なアルゴリズムで可変ビットレート圧縮を成功させることは依然として困難である。
条件付きオートエンコーダ、潜時テンソルのチャネル適応ゲイン、潜時テンソルの全ての要素を均一に定量化するなど、多くのアプローチが提案されている。
本論文は,すべての潜伏テンソル要素の均一量子化を行うために,単一量子化ステップサイズを変化させる従来のアプローチに従う。
しかし,可変レート圧縮性能を改善するため,3つの修正が提案されている。
第一に、多目的最適化は(ポスト)トレーニングに使用される。
次に、量子化演算に量子化再構成オフセットを導入する。
第3に、可変レート量子化はハイパー潜時においても用いられる。
これらの修正はすべて、ポストトレーニングを実行することで、事前訓練されたシングルレート圧縮モデルで行うことができる。
アルゴリズムは3つのよく知られた画像圧縮モデルに実装され、得られた可変レート圧縮結果は、複数のモデルのトレーニングと比較して、無視または最小の圧縮性能損失を示す。
(コード共有はhttps://github.com/InterDigitalInc/CompressAI)
関連論文リスト
- DiffRate : Differentiable Compression Rate for Efficient Vision
Transformers [98.33906104846386]
Token圧縮は、プルーニング(ドロップ)やトークンのマージによって、大規模な視覚変換器(ViTなど)を高速化することを目的としている。
DiffRate(ディフレート)は、先行技術にはないいくつかの魅力的な特性を持つ新しいトークン圧縮手法である。
論文 参考訳(メタデータ) (2023-05-29T10:15:19Z) - Multiscale Augmented Normalizing Flows for Image Compression [17.441496966834933]
本稿では,非可逆潜在変数モデルである拡張正規化フローに対して,階層的潜在空間を適応させる新しい概念を提案する。
私たちの最高のパフォーマンスモデルは、比較対象のシングルスケールモデルよりも7%以上、平均的なコスト削減を実現しました。
論文 参考訳(メタデータ) (2023-05-09T13:42:43Z) - Selective compression learning of latent representations for
variable-rate image compression [38.077284943341105]
本稿では、ディープラーニングに基づく可変レート画像圧縮のための、潜在表現を部分的に完全に一般化した方法で符号化する選択的圧縮法を提案する。
提案手法は、個別に訓練された参照圧縮モデルと同等の圧縮効率を達成でき、選択圧縮による復号時間を削減することができる。
論文 参考訳(メタデータ) (2022-11-08T09:09:59Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - OPQ: Compressing Deep Neural Networks with One-shot Pruning-Quantization [32.60139548889592]
本稿では,新しいワンショットプルーニング量子化(OPQ)を提案する。
OPQは、事前訓練された重みパラメータのみによる圧縮割り当てを解析的に解決する。
本稿では,共通コードブックを共有するために各レイヤの全チャネルを強制する,統一的なチャネルワイド量子化手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T09:05:25Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Differentiable Model Compression via Pseudo Quantization Noise [99.89011673907814]
本稿では,モデルパラメータに独立な擬似量子化雑音を加えて量子化演算子の効果を近似する。
本手法が,画像分類,言語モデリング,音声ソース分離などのベンチマークやアーキテクチャにおいて,最先端の量子化技術を上回ることを実験的に検証した。
論文 参考訳(メタデータ) (2021-04-20T14:14:03Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - Training with Quantization Noise for Extreme Model Compression [57.51832088938618]
与えられたモデルサイズに対する精度を最大化しながら、コンパクトなモデルを作成するという問題に取り組む。
標準的な解決策は、トレーニング中に重みが定量化され、勾配がストレート・スルー推定器に近似される量子化意識訓練(Quantization Aware Training)でネットワークをトレーニングすることである。
本稿では, この手法を, 極端な圧縮法を用いて, int8 の固定点量子化を超えて機能するように拡張する。
論文 参考訳(メタデータ) (2020-04-15T20:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。