論文の概要: Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression
- arxiv url: http://arxiv.org/abs/2103.17015v1
- Date: Wed, 31 Mar 2021 11:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:21:05.180715
- Title: Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression
- Title(参考訳): 可読性$\ell_\infty$-constrained Near-lossless Image Compression by Joint Lossy Image and Residual Compression
- Authors: Yuanchao Bai, Xianming Liu, Wangmeng Zuo, Yaowei Wang, Xiangyang Ji
- Abstract要約: 本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
- 参考スコア(独自算出の注目度): 118.89112502350177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel joint lossy image and residual compression framework for
learning $\ell_\infty$-constrained near-lossless image compression.
Specifically, we obtain a lossy reconstruction of the raw image through lossy
image compression and uniformly quantize the corresponding residual to satisfy
a given tight $\ell_\infty$ error bound. Suppose that the error bound is zero,
i.e., lossless image compression, we formulate the joint optimization problem
of compressing both the lossy image and the original residual in terms of
variational auto-encoders and solve it with end-to-end training. To achieve
scalable compression with the error bound larger than zero, we derive the
probability model of the quantized residual by quantizing the learned
probability model of the original residual, instead of training multiple
networks. We further correct the bias of the derived probability model caused
by the context mismatch between training and inference. Finally, the quantized
residual is encoded according to the bias-corrected probability model and is
concatenated with the bitstream of the compressed lossy image. Experimental
results demonstrate that our near-lossless codec achieves the state-of-the-art
performance for lossless and near-lossless image compression, and achieves
competitive PSNR while much smaller $\ell_\infty$ error compared with lossy
image codecs at high bit rates.
- Abstract(参考訳): 本稿では,$\ell_\infty$-constrained near-lossless 画像圧縮を学習するための新しい統合ロス画像圧縮フレームワークを提案する。
具体的には、損失画像圧縮により損失画像の再構成を行い、対応する残差を均一に定量化し、所定の密接な$\ell_\infty$エラーバウンドを満たす。
誤差境界がゼロ、すなわちロスレス画像圧縮であると仮定すると、損失画像と元の残差の両方を変分オートエンコーダで圧縮し、エンドツーエンドのトレーニングで解決する共同最適化問題を定式化する。
ゼロ以上の誤差領域を持つスケーラブルな圧縮を実現するために,複数のネットワークを訓練するのではなく,元の残差の学習確率モデルを量子化することで,量子化残差の確率モデルを導出する。
さらに、トレーニングと推論のコンテキストミスマッチによる導出確率モデルのバイアスを補正する。
最後に、量子化残差をバイアス補正確率モデルに従って符号化し、圧縮損失画像のビットストリームと連結する。
実験結果から,ロスレスおよびロスレス画像圧縮の最先端性能を達成し,高いビットレートでロスレス画像コーデックと比較して,より小さい$\ell_\infty$エラーで競合するpsnrを実現することができた。
関連論文リスト
- Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Lossy and Lossless (L$^2$) Post-training Model Size Compression [12.926354646945397]
本稿では,無損失圧縮と無損失圧縮を統一的に組み合わせた後学習モデルサイズ圧縮法を提案する。
精度を犠牲にすることなく安定な10times$圧縮比を達成でき、短時間で20times$圧縮比を小さくすることができる。
論文 参考訳(メタデータ) (2023-08-08T14:10:16Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - Deep Lossy Plus Residual Coding for Lossless and Near-lossless Image
Compression [85.93207826513192]
本稿では、損失のない画像圧縮とほぼロスレス画像圧縮の両面において、統合された強力な深い損失+残差(DLPR)符号化フレームワークを提案する。
VAEのアプローチにおける連立損失と残留圧縮の問題を解く。
ほぼロスレスモードでは、元の残差を量子化し、与えられた$ell_infty$エラー境界を満たす。
論文 参考訳(メタデータ) (2022-09-11T12:11:56Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z) - Learning Better Lossless Compression Using Lossy Compression [100.50156325096611]
我々は、ロスレス画像圧縮システムを構築するために、強力なロスレス画像圧縮アルゴリズムであるBPGを利用する。
我々は,BPG再構成を条件とした畳み込みニューラルネットワークに基づく確率モデルを用いて,残差分布をモデル化する。
そして、この画像は、BPGが生成したビットストリームと学習した残留コーダの連結を用いて保存される。
論文 参考訳(メタデータ) (2020-03-23T11:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。