論文の概要: Asymmetric Gained Deep Image Compression With Continuous Rate Adaptation
- arxiv url: http://arxiv.org/abs/2003.02012v3
- Date: Tue, 2 Aug 2022 11:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:34:39.041226
- Title: Asymmetric Gained Deep Image Compression With Continuous Rate Adaptation
- Title(参考訳): 連続レート適応による非対称ゲイン深部画像圧縮
- Authors: Ze Cui, Jing Wang, Shangyin Gao, Bo Bai, Tiansheng Guo and Yihui Feng
- Abstract要約: 本稿では,非対称ゲイン変分オートエンコーダ(AG-VAE)の連続速度調整型画像圧縮フレームワークを提案する。
AG-VAEは、一組の利得単位を用いて、1つのモデルの離散レート適応を無視可能な追加計算で達成する。
提案手法は,SOTA学習画像圧縮手法を用いて,従来の画像コーデックよりも質的性能が向上する。
- 参考スコア(独自算出の注目度): 12.009880944927069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of deep learning techniques, the combination of deep
learning with image compression has drawn lots of attention. Recently, learned
image compression methods had exceeded their classical counterparts in terms of
rate-distortion performance. However, continuous rate adaptation remains an
open question. Some learned image compression methods use multiple networks for
multiple rates, while others use one single model at the expense of
computational complexity increase and performance degradation. In this paper,
we propose a continuously rate adjustable learned image compression framework,
Asymmetric Gained Variational Autoencoder (AG-VAE). AG-VAE utilizes a pair of
gain units to achieve discrete rate adaptation in one single model with a
negligible additional computation. Then, by using exponential interpolation,
continuous rate adaptation is achieved without compromising performance.
Besides, we propose the asymmetric Gaussian entropy model for more accurate
entropy estimation. Exhaustive experiments show that our method achieves
comparable quantitative performance with SOTA learned image compression methods
and better qualitative performance than classical image codecs. In the ablation
study, we confirm the usefulness and superiority of gain units and the
asymmetric Gaussian entropy model.
- Abstract(参考訳): 深層学習技術の発展に伴い,深層学習と画像圧縮の組み合わせが注目されている。
近年, 学習画像圧縮手法は, レートゆらぎ性能の点で, 従来の手法を上回っている。
しかし、継続レートの適応は未解決の問題である。
学習された画像圧縮法は複数のネットワークを複数のレートで使用するが、計算複雑性の増加と性能の低下を犠牲にして1つのモデルを使用するものもある。
本稿では,非対称ゲイン変分オートエンコーダ(AG-VAE)の連続レート調整可能な画像圧縮フレームワークを提案する。
AG-VAEは1組の利得単位を用いて1つのモデルの離散レート適応を無視可能な追加計算で達成する。
そして指数補間を用いることで、性能を損なうことなく連続速度適応を実現する。
さらに,より正確なエントロピー推定のための非対称ガウスエントロピーモデルを提案する。
実験の結果,従来の画像コーデックに比べて,soma学習画像圧縮法と同等の量的性能と質的性能が得られることがわかった。
アブレーション研究において,利得単位と非対称ガウスエントロピーモデルの有用性と優位性を確認した。
関連論文リスト
- CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - Post-Training Quantization for Cross-Platform Learned Image Compression [15.67527732099067]
学習した画像圧縮が従来の画像符号化技術より優れていることが確認されている。
考慮すべき最も重要な問題の1つは、非決定論的計算である。
本稿では,学習後量子化の導入によってこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-02-15T15:41:12Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Substitutional Neural Image Compression [48.20906717052056]
置換型ニューラルイメージ圧縮(snic)は、あらゆるニューラルイメージ圧縮モデルを強化する一般的なアプローチである。
フレキシブルな歪みメトリックに向けて圧縮性能を高め、単一のモデルインスタンスを使用したビットレート制御を可能にする。
論文 参考訳(メタデータ) (2021-05-16T20:53:31Z) - Variational Bayesian Quantization [31.999462074510305]
訓練されたモデルにおける連続潜伏表現の定量化のための新しいアルゴリズムを提案する。
固定量子化スキームにモデルを組み込む現在のエンドツーエンドのニューラル圧縮法とは異なり、我々のアルゴリズムはモデル設計とトレーニングを量子化から分離する。
我々のアルゴリズムは連続領域への算術符号の新たな拡張と見なすことができる。
論文 参考訳(メタデータ) (2020-02-18T00:15:37Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。