論文の概要: AdaQual-Diff: Diffusion-Based Image Restoration via Adaptive Quality Prompting
- arxiv url: http://arxiv.org/abs/2504.12605v1
- Date: Thu, 17 Apr 2025 03:08:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:37:01.710727
- Title: AdaQual-Diff: Diffusion-Based Image Restoration via Adaptive Quality Prompting
- Title(参考訳): AdaQual-Diff:Adaptive Quality Promptingによる拡散に基づく画像復元
- Authors: Xin Su, Chen Wu, Yu Zhang, Chen Lyu, Zhuoran Zheng,
- Abstract要約: 本稿では,知覚的品質評価を直接生成的回復プロセスに統合する拡散型フレームワークを提案する。
AdaQual-Diffは、さまざまな合成および実世界のデータセット間で視覚的に優れた復元を実現する。
- 参考スコア(独自算出の注目度): 10.175405673457892
- License:
- Abstract: Restoring images afflicted by complex real-world degradations remains challenging, as conventional methods often fail to adapt to the unique mixture and severity of artifacts present. This stems from a reliance on indirect cues which poorly capture the true perceptual quality deficit. To address this fundamental limitation, we introduce AdaQual-Diff, a diffusion-based framework that integrates perceptual quality assessment directly into the generative restoration process. Our approach establishes a mathematical relationship between regional quality scores from DeQAScore and optimal guidance complexity, implemented through an Adaptive Quality Prompting mechanism. This mechanism systematically modulates prompt structure according to measured degradation severity: regions with lower perceptual quality receive computationally intensive, structurally complex prompts with precise restoration directives, while higher quality regions receive minimal prompts focused on preservation rather than intervention. The technical core of our method lies in the dynamic allocation of computational resources proportional to degradation severity, creating a spatially-varying guidance field that directs the diffusion process with mathematical precision. By combining this quality-guided approach with content-specific conditioning, our framework achieves fine-grained control over regional restoration intensity without requiring additional parameters or inference iterations. Experimental results demonstrate that AdaQual-Diff achieves visually superior restorations across diverse synthetic and real-world datasets.
- Abstract(参考訳): 複雑な現実世界の劣化によって引き起こされる画像の復元は依然として困難であり、従来の方法では、遺物の特異な混合や重大さに適応できないことが多い。
これは、間接的な手がかりに頼り、真の知覚品質の欠陥をうまく捉えていないことに由来する。
この基本的限界に対処するために、私たちは、知覚的品質評価を直接生成的復元プロセスに統合する拡散ベースのフレームワークであるAdaQual-Diffを紹介します。
提案手法は,DeQAScoreから得られた地域品質スコアと適応品質プロンプティング機構によって実装された最適ガイダンス複雑性の数学的関係を確立する。
このメカニズムは、測定された劣化度に応じてプロンプト構造を体系的に調整する: 低い知覚品質の領域は計算的に集約的で構造的に複雑なプロンプトを受け取り、高い品質の領域は介入よりも保存に焦点を当てた最小限のプロンプトを受け取る。
本手法の技術的コアは,分解度に比例した計算資源の動的割当であり,空間的に変化する誘導場を生成し,拡散過程を数学的精度で指示する。
この品質誘導型アプローチとコンテンツ固有の条件付けを組み合わせることで、追加パラメータや推論の繰り返しを必要とせずに、局所的な復元強度のきめ細かい制御を実現する。
実験の結果、AdaQual-Diffは様々な合成および実世界のデータセットで視覚的に優れた復元を実現することが示された。
関連論文リスト
- InterLCM: Low-Quality Images as Intermediate States of Latent Consistency Models for Effective Blind Face Restoration [106.70903819362402]
拡散前駆体は、低画質画像の復元のために、復元データセットの微細調整拡散モデル(DM)によってブラインドフェイス復元(BFR)に使用されている。
我々は,その優れたセマンティック一貫性と効率のために潜在一貫性モデル(LCM)を活用するために,InterLCMを提案する。
InterLCMは、合成データセットと実世界のデータセットの両方において既存のアプローチより優れており、推論速度も高速である。
論文 参考訳(メタデータ) (2025-02-04T10:51:20Z) - Unified Framework for Neural Network Compression via Decomposition and Optimal Rank Selection [3.3454373538792552]
本稿では,決定された階数制約内での複合圧縮損失を利用して,分解と最適な階数選択を行う統一的な枠組みを提案する。
提案手法は連続空間におけるランクの自動探索を含み,トレーニングデータを用いることなく最適なランク設定を効率的に同定する。
様々なベンチマークデータセットを用いて,包括的解析により本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-09-05T14:15:54Z) - Diff-Restorer: Unleashing Visual Prompts for Diffusion-based Universal Image Restoration [19.87693298262894]
拡散モデルに基づく普遍的な画像復元手法であるDiff-Restorerを提案する。
我々は、事前学習された視覚言語モデルを用いて、劣化した画像から視覚的プロンプトを抽出する。
また、デグレーション対応デコーダを設計し、構造的補正を行い、潜在コードをピクセル領域に変換する。
論文 参考訳(メタデータ) (2024-07-04T05:01:10Z) - SSP-IR: Semantic and Structure Priors for Diffusion-based Realistic Image Restoration [20.873676111265656]
SSP-IRは、低画質の画像からセマンティックと構造をフル活用することを目的としている。
提案手法は,合成および実世界のデータセットにおいて,他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2024-07-04T04:55:14Z) - Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - Overcoming Distribution Mismatch in Quantizing Image Super-Resolution Networks [53.23803932357899]
量子化は画像超解像(SR)ネットワークの精度を低下させる。
既存の作業は、テスト時間中に量子化範囲を動的に適応することで、この分散ミスマッチ問題に対処する。
本稿では,SRネットワークにおける分散ミスマッチ問題を効果的に克服する量子化対応学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:50:01Z) - DiracDiffusion: Denoising and Incremental Reconstruction with Assured Data-Consistency [24.5360032541275]
拡散モデルは、画像復元を含む多数のコンピュータビジョンタスクにおいて、この技術の新たな状態を確立した。
逆問題解決のための新しい枠組みを提案する。つまり、観測は徐々に劣化し、元のクリーンイメージにノイズを与える劣化過程から来ていると仮定する。
本手法は, 逆過程を通じて元の計測値との整合性を維持し, 歪み指標の改善と早期ストッピングによるサンプリング高速化のために, 知覚品質のトレードオフに優れた柔軟性を実現する。
論文 参考訳(メタデータ) (2023-03-25T04:37:20Z) - IntrinsicNeRF: Learning Intrinsic Neural Radiance Fields for Editable
Novel View Synthesis [90.03590032170169]
内在性ニューラルレンダリング法に内在性分解を導入した内在性ニューラルレイディアンス場(IntrinsicNeRF)を提案する。
そこで,本研究では,オブジェクト固有・ルームスケールシーンと合成・実単語データの両方を用いて,一貫した本質的な分解結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-02T22:45:11Z) - Editing Out-of-domain GAN Inversion via Differential Activations [56.62964029959131]
本稿では,構成分解パラダイムを用いて,ドメイン外反転問題に対処する新しいGAN事前編集フレームワークを提案する。
生成されたDiff-CAMマスクの助けを借りて、粗い再構成を直感的に元の画像と編集された画像で合成することができる。
また, 分解段階において, 粗い再構成から最終微編集画像を切り離すための, GAN 以前のデゴーストネットワークを提示する。
論文 参考訳(メタデータ) (2022-07-17T10:34:58Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。