論文の概要: LVQAC: Lattice Vector Quantization Coupled with Spatially Adaptive
Companding for Efficient Learned Image Compression
- arxiv url: http://arxiv.org/abs/2304.12319v1
- Date: Sat, 25 Mar 2023 23:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:40:35.945372
- Title: LVQAC: Lattice Vector Quantization Coupled with Spatially Adaptive
Companding for Efficient Learned Image Compression
- Title(参考訳): LVQAC:効率的な学習画像圧縮のための空間適応補償と格子ベクトル量子化
- Authors: Xi Zhang and Xiaolin Wu
- Abstract要約: 本稿では,空間適応型コンパウンディング(LVQAC)マッピングを併用した新しい格子ベクトル量子化方式を提案する。
エンドツーエンドのCNN画像圧縮モデルでは、一様量子化器をLVQACで置き換えることにより、モデルの複雑さを大幅に増大させることなく、より優れたレート歪み性能が得られる。
- 参考スコア(独自算出の注目度): 24.812267280543693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, numerous end-to-end optimized image compression neural networks
have been developed and proved themselves as leaders in rate-distortion
performance. The main strength of these learnt compression methods is in
powerful nonlinear analysis and synthesis transforms that can be facilitated by
deep neural networks. However, out of operational expediency, most of these
end-to-end methods adopt uniform scalar quantizers rather than vector
quantizers, which are information-theoretically optimal. In this paper, we
present a novel Lattice Vector Quantization scheme coupled with a spatially
Adaptive Companding (LVQAC) mapping. LVQ can better exploit the inter-feature
dependencies than scalar uniform quantization while being computationally
almost as simple as the latter. Moreover, to improve the adaptability of LVQ to
source statistics, we couple a spatially adaptive companding (AC) mapping with
LVQ. The resulting LVQAC design can be easily embedded into any end-to-end
optimized image compression system. Extensive experiments demonstrate that for
any end-to-end CNN image compression models, replacing uniform quantizer by
LVQAC achieves better rate-distortion performance without significantly
increasing the model complexity.
- Abstract(参考訳): 近年、多くのエンドツーエンド最適化画像圧縮ニューラルネットワークが開発され、レート歪み性能のリーダーとして証明されている。
これらの学習圧縮法の主な強みは、ディープニューラルネットワークによって容易に実現できる強力な非線形解析と合成変換である。
しかし、これらのエンドツーエンド手法の多くは、情報理論上最適であるベクトル量子化器ではなく、一様スカラー量子化器を採用する。
本稿では,空間適応型コンパウンディング(LVQAC)マッピングを併用した新しい格子ベクトル量子化方式を提案する。
LVQはスカラー均一量子化よりも機能間の依存関係をうまく利用でき、計算は後者と同じくらい単純である。
さらに,LVQの情報源統計への適応性を向上させるため,空間適応型コンパイル(AC)マッピングをLVQと組み合わせた。
結果として得られるLVQAC設計は、エンドツーエンドの最適化された画像圧縮システムに容易に組み込むことができる。
拡張実験により、任意のエンドツーエンドCNN画像圧縮モデルに対して、一様量子化器をLVQACで置き換えることにより、モデルの複雑さを大幅に増大させることなく、より優れた速度歪み性能が得られることが示された。
関連論文リスト
- PassionSR: Post-Training Quantization with Adaptive Scale in One-Step Diffusion based Image Super-Resolution [87.89013794655207]
拡散に基づく画像超解像(SR)モデルでは、複数のデノナイジングステップのコストで優れた性能を示す。
本稿では,一段階拡散(OSD)画像SR,PassionSRにおける適応スケールの学習後量子化手法を提案する。
我々のPassionSRは、画像SRの最近の先進的な低ビット量子化法に対して大きな利点がある。
論文 参考訳(メタデータ) (2024-11-26T04:49:42Z) - Learning Optimal Lattice Vector Quantizers for End-to-end Neural Image Compression [16.892815659154053]
格子ベクトル量子化(LVQ)は、機能間の依存関係をより効果的に活用できる魅力的な代替手段である。
従来のLVQ構造は、均一なソース分布のために設計・最適化されている。
本稿では,この弱点を克服するための新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T06:05:08Z) - Variable-size Symmetry-based Graph Fourier Transforms for image compression [65.7352685872625]
可変サイズのグラフフーリエ変換を符号化フレームワークに導入する。
提案アルゴリズムは,ノード間の特定の対称接続を追加することにより,グリッド上の対称グラフを生成する。
実験により、SBGFTは、明示的な多重変換選択に統合された一次変換よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T13:00:44Z) - Approaching Rate-Distortion Limits in Neural Compression with Lattice
Transform Coding [33.377272636443344]
ニューラル圧縮設計では、ソースを潜在ベクトルに変換し、それを整数に丸め、エントロピーを符号化する。
我々は、i.d.配列に対して非常に最適であり、実際に、元のソースシーケンスのスカラー量子化を常に回復することを示した。
遅延空間におけるスカラー量子化の代わりに格子量子化を用いることにより、格子変換符号化(LTC)が様々な次元で最適なベクトル量子化を回復できることを実証する。
論文 参考訳(メタデータ) (2024-03-12T05:09:25Z) - Soft Convex Quantization: Revisiting Vector Quantization with Convex
Optimization [40.1651740183975]
ベクトル量子化(VQ)の直接代用として,ソフト凸量子化(SCQ)を提案する。
SCQは微分凸最適化(DCO)層のように機能する。
CIFAR-10, GTSRB, LSUNデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2023-10-04T17:45:14Z) - Joint Hierarchical Priors and Adaptive Spatial Resolution for Efficient
Neural Image Compression [11.25130799452367]
ニューラル画像圧縮(NIC)のための絶対画像圧縮変換器(ICT)を提案する。
ICTは、潜在表現からグローバルコンテキストとローカルコンテキストの両方をキャプチャし、量子化された潜在表現の分布をパラメータ化する。
我々のフレームワークは、多目的ビデオ符号化(VVC)参照符号化(VTM-18.0)とニューラルスウィンT-ChARMに対する符号化効率とデコーダ複雑性のトレードオフを大幅に改善する。
論文 参考訳(メタデータ) (2023-07-05T13:17:14Z) - NVTC: Nonlinear Vector Transform Coding [35.10187626615328]
理論上、ベクトル量子化(VQ)は常にスカラー量子化(SQ)よりも、レート歪み(R-D)性能の点で優れている。
最近のニューラル画像圧縮の最先端手法は、主に均一なスカラー量子化を伴う非線形変換符号化(NTC)に基づいている。
ベクトル変換符号化(NVTC)と呼ばれるニューラル画像圧縮のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-25T13:06:38Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - End-to-End Facial Deep Learning Feature Compression with Teacher-Student
Enhancement [57.18801093608717]
本稿では,ディープニューラルネットワークの表現と学習能力を活用することで,エンドツーエンドの特徴圧縮手法を提案する。
特に、抽出した特徴量を、レート歪みコストを最適化することにより、エンドツーエンドでコンパクトに符号化する。
提案モデルの有効性を顔の特徴で検証し, 圧縮性能を高いレート精度で評価した。
論文 参考訳(メタデータ) (2020-02-10T10:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。