論文の概要: Compression-Aware One-Step Diffusion Model for JPEG Artifact Removal
- arxiv url: http://arxiv.org/abs/2502.09873v2
- Date: Wed, 19 Feb 2025 21:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 10:45:29.538414
- Title: Compression-Aware One-Step Diffusion Model for JPEG Artifact Removal
- Title(参考訳): JPEGアーチファクト除去のための圧縮型ワンステップ拡散モデル
- Authors: Jinpei Guo, Zheng Chen, Wenbo Li, Yong Guo, Yulun Zhang,
- Abstract要約: CODiffはJPEGアーティファクト削除のための圧縮対応ワンステップ拡散モデルである。
明示的な学習と暗黙的な学習を組み合わせた二重学習戦略を提案する。
その結果,CODiffは定量的および視覚的品質指標の両方において,最近の先行手法を超越していることがわかった。
- 参考スコア(独自算出の注目度): 56.307484956135355
- License:
- Abstract: Diffusion models have demonstrated remarkable success in image restoration tasks. However, their multi-step denoising process introduces significant computational overhead, limiting their practical deployment. Furthermore, existing methods struggle to effectively remove severe JPEG artifact, especially in highly compressed images. To address these challenges, we propose CODiff, a compression-aware one-step diffusion model for JPEG artifact removal. The core of CODiff is the compression-aware visual embedder (CaVE), which extracts and leverages JPEG compression priors to guide the diffusion model. We propose a dual learning strategy that combines explicit and implicit learning. Specifically, explicit learning enforces a quality prediction objective to differentiate low-quality images with different compression levels. Implicit learning employs a reconstruction objective that enhances the model's generalization. This dual learning allows for a deeper and more comprehensive understanding of JPEG compression. Experimental results demonstrate that CODiff surpasses recent leading methods in both quantitative and visual quality metrics. The code and models will be released at https://github.com/jp-guo/CODiff.
- Abstract(参考訳): 拡散モデルは画像復元タスクにおいて顕著な成功を収めた。
しかし、そのマルチステップのデノベーションプロセスは、計算オーバーヘッドが大幅に増加し、実際のデプロイメントが制限される。
さらに、既存の方法では、特に高度に圧縮された画像において、重いJPEGアーティファクトを効果的に除去するのに苦労している。
これらの課題に対処するために,JPEGアーティファクト除去のための圧縮対応ワンステップ拡散モデルであるCODiffを提案する。
CODiffのコアは圧縮対応視覚埋め込み(CaVE)であり、拡散モデルを導くためにJPEG圧縮を抽出し活用する。
明示的な学習と暗黙的な学習を組み合わせた二重学習戦略を提案する。
具体的には、明示的な学習は、圧縮レベルが異なる低品質の画像を区別する品質予測の目的を強制する。
帰納的学習はモデルの一般化を促進する再構成目的を用いる。
この二重学習により、JPEG圧縮をより深く、より包括的な理解が可能になる。
実験の結果,CODiffは定量的および視覚的品質指標の両方において,最近の先行手法を超越していることがわかった。
コードとモデルはhttps://github.com/jp-guo/CODiff.comで公開される。
関連論文リスト
- PSC: Posterior Sampling-Based Compression [34.50287066865267]
Posterior Sampling-based Compression (PSC) は、学習前の拡散モデルを唯一のニューラルネットワークコンポーネントとして利用するゼロショット圧縮法である。
PSCは画像に適応した変換を構成する。
我々はPSCの性能が、レート、歪み、知覚品質の点で確立されたトレーニングベースの手法に匹敵することを示した。
論文 参考訳(メタデータ) (2024-07-13T14:24:22Z) - Activations and Gradients Compression for Model-Parallel Training [85.99744701008802]
モデル並列分散トレーニングセットアップにおけるアクティベーションと勾配の同時圧縮が収束に与える影響について検討する。
グラデーションはアクティベーションよりも軽度な圧縮速度を必要とする。
実験では、TopKでトレーニングされたモデルが、推論中に圧縮も適用された場合にのみ正常に動作することが示されている。
論文 参考訳(メタデータ) (2024-01-15T15:54:54Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Learned Lossless Image Compression With Combined Autoregressive Models
And Attention Modules [22.213840578221678]
ロスレス画像圧縮は画像圧縮において重要な研究分野である。
近年の学習に基づく画像圧縮法は優れた性能を示した。
本稿では,ロスレス圧縮に広く用いられている手法について検討し,ロスレス圧縮に適用する。
論文 参考訳(メタデータ) (2022-08-30T03:27:05Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。