論文の概要: An End-to-End Joint Learning Scheme of Image Compression and Quality
Enhancement with Improved Entropy Minimization
- arxiv url: http://arxiv.org/abs/1912.12817v2
- Date: Fri, 13 Mar 2020 08:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 03:02:27.322363
- Title: An End-to-End Joint Learning Scheme of Image Compression and Quality
Enhancement with Improved Entropy Minimization
- Title(参考訳): エントロピー最小化改善による画像圧縮と品質向上のエンドツーエンド共同学習方式
- Authors: Jooyoung Lee, Seunghyun Cho, Munchurl Kim
- Abstract要約: 画像圧縮と品質向上のための新しい共同学習手法であるJointIQ-Netを提案する。
提案するJointIQ-Netには,画像圧縮サブネットワークと品質向上サブネットワークが組み合わさっていて,どちらもJointIQ-Net内でエンドツーエンドにトレーニングされている。
- 参考スコア(独自算出の注目度): 43.878329556261924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, learned image compression methods have been actively studied. Among
them, entropy-minimization based approaches have achieved superior results
compared to conventional image codecs such as BPG and JPEG2000. However, the
quality enhancement and rate-minimization are conflictively coupled in the
process of image compression. That is, maintaining high image quality entails
less compression and vice versa. However, by jointly training separate quality
enhancement in conjunction with image compression, the coding efficiency can be
improved. In this paper, we propose a novel joint learning scheme of image
compression and quality enhancement, called JointIQ-Net, as well as entropy
model improvement, thus achieving significantly improved coding efficiency
against the previous methods. Our proposed JointIQ-Net combines an image
compression sub-network and a quality enhancement sub-network in a cascade,
both of which are end-to-end trained in a combined manner within the
JointIQ-Net. Also the JointIQ-Net benefits from improved entropy-minimization
that newly adopts a Gussian Mixture Model (GMM) and further exploits global
context to estimate the probabilities of latent representations. In order to
show the effectiveness of our proposed JointIQ-Net, extensive experiments have
been performed, and showed that the JointIQ-Net achieves a remarkable
performance improvement in coding efficiency in terms of both PSNR and MS-SSIM,
compared to the previous learned image compression methods and the conventional
codecs such as VVC Intra (VTM 7.1), BPG, and JPEG2000. To the best of our
knowledge, this is the first end-to-end optimized image compression method that
outperforms VTM 7.1 (Intra), the latest reference software of the VVC standard,
in terms of the PSNR and MS-SSIM.
- Abstract(参考訳): 近年,学習画像圧縮法が盛んに研究されている。
その中でも、エントロピー最小化に基づくアプローチは、BPGやJPEG2000のような従来の画像コーデックよりも優れた結果を得た。
しかし、画質向上とレート最小化は画像圧縮の過程で相反的に結合される。
つまり、高画質の維持は圧縮を少なくし、その逆である。
しかし、画像圧縮と連動して別々に品質向上を訓練することで、符号化効率を向上させることができる。
本稿では,画像圧縮と品質向上のための新たなジョイントラーニング手法であるJointIQ-Netを提案する。
提案するJointIQ-Netには,画像圧縮サブネットワークと品質向上サブネットワークが組み合わさっていて,どちらもJointIQ-Net内でエンドツーエンドにトレーニングされている。
また、JointIQ-NetはGMM(Gussian Mixture Model)を新たに採用したエントロピー最小化の改善による恩恵を受け、グローバルコンテキストを利用して潜在表現の確率を推定する。
提案したJointIQ-Netの有効性を示すため,PSNRとMS-SSIMの両面で,従来の学習画像圧縮法やVVCイントラ(VTM 7.1),BPG,JPEG2000などのコーデックと比較して,JointIQ-Netは,符号化効率の顕著な向上を実現していることを示した。
我々の知る限り、PSNRとMS-SSIMの点で、VVC規格の最新リファレンスソフトウェアであるVTM 7.1(Intra)に勝る、エンドツーエンドの最適化画像圧縮手法としては、これが初めてのものである。
関連論文リスト
- Unifying Generation and Compression: Ultra-low bitrate Image Coding Via
Multi-stage Transformer [35.500720262253054]
本稿では,新しい画像生成圧縮(UIGC)パラダイムを導入し,生成と圧縮のプロセスを統合する。
UIGCフレームワークの重要な特徴は、トークン化にベクトル量子化(VQ)イメージモデルを採用することである。
実験では、既存のコーデックよりも知覚品質と人間の知覚において、提案されたUIGCフレームワークが優れていることを示した。
論文 参考訳(メタデータ) (2024-03-06T14:27:02Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - JND-Based Perceptual Optimization For Learned Image Compression [42.822121565430926]
学習画像圧縮方式におけるJNDに基づく知覚品質損失を提案する。
提案手法は,同じビットレートのベースラインモデルよりも知覚品質が向上したことを示す。
論文 参考訳(メタデータ) (2023-02-25T14:49:09Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Early Exit or Not: Resource-Efficient Blind Quality Enhancement for
Compressed Images [54.40852143927333]
ロスシー画像圧縮は、通信帯域を節約するために広範に行われ、望ましくない圧縮アーティファクトをもたらす。
圧縮画像に対する資源効率の高いブラインド品質向上手法(RBQE)を提案する。
提案手法は, 評価された画像の品質に応じて, 自動的にエンハンスメントを終了するか, 継続するかを決定することができる。
論文 参考訳(メタデータ) (2020-06-30T07:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。