論文の概要: High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation
- arxiv url: http://arxiv.org/abs/2209.05054v1
- Date: Mon, 12 Sep 2022 07:14:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:57:14.697066
- Title: High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation
- Title(参考訳): 可逆的アクティベーション変換による高忠実度可変レート画像圧縮
- Authors: Shilv Cai, Zhijun Zhang, Liqun Chen, Luxin Yan, Sheng Zhong, Xu Zou
- Abstract要約: Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
- 参考スコア(独自算出の注目度): 24.379052026260034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based methods have effectively promoted the community of image
compression. Meanwhile, variational autoencoder (VAE) based variable-rate
approaches have recently gained much attention to avoid the usage of a set of
different networks for various compression rates. Despite the remarkable
performance that has been achieved, these approaches would be readily corrupted
once multiple compression/decompression operations are executed, resulting in
the fact that image quality would be tremendously dropped and strong artifacts
would appear. Thus, we try to tackle the issue of high-fidelity fine
variable-rate image compression and propose the Invertible Activation
Transformation (IAT) module. We implement the IAT in a mathematical invertible
manner on a single rate Invertible Neural Network (INN) based model and the
quality level (QLevel) would be fed into the IAT to generate scaling and bias
tensors. IAT and QLevel together give the image compression model the ability
of fine variable-rate control while better maintaining the image fidelity.
Extensive experiments demonstrate that the single rate image compression model
equipped with our IAT module has the ability to achieve variable-rate control
without any compromise. And our IAT-embedded model obtains comparable
rate-distortion performance with recent learning-based image compression
methods. Furthermore, our method outperforms the state-of-the-art variable-rate
image compression method by a large margin, especially after multiple
re-encodings.
- Abstract(参考訳): 学習に基づく手法は、画像圧縮のコミュニティを効果的に促進している。
一方、変分オートエンコーダ(VAE)に基づく可変レートアプローチは、最近、様々な圧縮速度で異なるネットワークのセットの使用を避けるために多くの注目を集めている。
達成された顕著な性能にもかかわらず、複数の圧縮/圧縮操作が実行されると、これらのアプローチは容易に破損し、画像の品質が大幅に低下し、強力なアーティファクトが現れることになる。
そこで我々は,高忠実度微細可変レート画像圧縮の問題に取り組み,Invertible Activation Transformation (IAT)モジュールを提案する。
我々は、単一レートの非可逆ニューラルネットワーク(INN)モデルに基づいて、IATを数学的に非可逆的に実装し、その品質レベル(QLevel)をIATに供給し、スケーリングとバイアステンソルを生成する。
iatとqlevelは画像圧縮モデルに、画像の忠実性を維持しつつ、微妙な可変レート制御の能力を与える。
広範な実験により,iatモジュールを搭載した単一レート画像圧縮モデルが,妥協することなく可変レート制御を実現することを実証した。
IAT埋め込みモデルでは,最近の画像圧縮手法と同等の速度歪み特性が得られる。
さらに,本手法は,特に複数再符号化後に,最先端の可変レート画像圧縮手法よりも高い性能を示す。
関連論文リスト
- Once-for-All: Controllable Generative Image Compression with Dynamic Granularity Adaption [57.056311855630916]
本稿では,制御可能な生成画像圧縮フレームワークである制御-GICを提案する。
高忠実度および一般性圧縮を確保しつつ、広帯域での微粒化適応を可能にする。
我々は、歴史的符号化された多粒度表現に遡ることができる条件条件付き条件付けを開発する。
論文 参考訳(メタデータ) (2024-06-02T14:22:09Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - Multiscale Augmented Normalizing Flows for Image Compression [17.441496966834933]
本稿では,非可逆潜在変数モデルである拡張正規化フローに対して,階層的潜在空間を適応させる新しい概念を提案する。
私たちの最高のパフォーマンスモデルは、比較対象のシングルスケールモデルよりも7%以上、平均的なコスト削減を実現しました。
論文 参考訳(メタデータ) (2023-05-09T13:42:43Z) - Image Compression with Product Quantized Masked Image Modeling [44.15706119017024]
最近のニューラル圧縮法は、人気のあるハイパープライアフレームワークに基づいている。
Scalar Quantizationに依存しており、非常に強力な圧縮パフォーマンスを提供します。
これは、ベクトル量子化が一般的に用いられる画像生成と表現学習の最近の進歩とは対照的である。
論文 参考訳(メタデータ) (2022-12-14T17:50:39Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。