論文の概要: PG-ControlNet: A Physics-Guided ControlNet for Generative Spatially Varying Image Deblurring
- arxiv url: http://arxiv.org/abs/2511.21043v1
- Date: Wed, 26 Nov 2025 04:19:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.962916
- Title: PG-ControlNet: A Physics-Guided ControlNet for Generative Spatially Varying Image Deblurring
- Title(参考訳): PG-ControlNet:空間可変画像デブリ生成のための物理誘導制御ネット
- Authors: Hakki Motorcu, Mujdat Cetin,
- Abstract要約: 空間的に変化する画像の劣化を抑えるための新しい枠組みを提案する。
分解場を単純化するのではなく、高次元圧縮カーネルの密な連続体としてモデル化する。
本手法は,身体的精度と知覚リアリズムのギャップを効果的に埋めるものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatially varying image deblurring remains a fundamentally ill-posed problem, especially when degradations arise from complex mixtures of motion and other forms of blur under significant noise. State-of-the-art learning-based approaches generally fall into two paradigms: model-based deep unrolling methods that enforce physical constraints by modeling the degradations, but often produce over-smoothed, artifact-laden textures, and generative models that achieve superior perceptual quality yet hallucinate details due to weak physical constraints. In this paper, we propose a novel framework that uniquely reconciles these paradigms by taming a powerful generative prior with explicit, dense physical constraints. Rather than oversimplifying the degradation field, we model it as a dense continuum of high-dimensional compressed kernels, ensuring that minute variations in motion and other degradation patterns are captured. We leverage this rich descriptor field to condition a ControlNet architecture, strongly guiding the diffusion sampling process. Extensive experiments demonstrate that our method effectively bridges the gap between physical accuracy and perceptual realism, outperforming state-of-the-art model-based methods as well as generative baselines in challenging, severely blurred scenarios.
- Abstract(参考訳): 空間的に異なる画像の劣化は、特に大きな雑音下での複雑な動きや他の形態のぼやけから生じる劣化が、根本的な不適切な問題である。
最先端の学習ベースのアプローチは、一般的に2つのパラダイムに分類される: モデルベースの深層展開手法は、劣化をモデル化することで物理的な制約を強制するが、しばしば過度に滑らかでアーティファクトなテクスチャを生成する。
本稿では,これらのパラダイムを一意に調整する枠組みを提案する。
劣化場を過度に単純化するのではなく、高次元圧縮されたカーネルの密度連続体としてモデル化し、運動やその他の劣化パターンの微小な変化を捉える。
我々は、このリッチな記述子フィールドを利用して、拡散サンプリングプロセスを強く導く制御ネットアーキテクチャを条件づける。
大規模な実験により,本手法は物理的精度と知覚リアリズムのギャップを効果的に埋めることを示した。
関連論文リスト
- VDEGaussian: Video Diffusion Enhanced 4D Gaussian Splatting for Dynamic Urban Scenes Modeling [68.65587507038539]
本稿では,動的都市景観モデリングのための拡散強調4次元ガウス平滑化フレームワークを提案する。
我々の重要な洞察は、テスト時間に適応したビデオ拡散モデルから頑健で時間的に一貫した事前情報を抽出することである。
提案手法は, 高速移動物体の動的モデリングを著しく向上させ, 2dBのPSNRゲインを近似的に達成する。
論文 参考訳(メタデータ) (2025-08-04T07:24:05Z) - BokehDiff: Neural Lens Blur with One-Step Diffusion [62.59018200914645]
ボケフディフ(BokehDiff)は、物理的に正確で視覚的に魅力的な結果が得られるレンズボウ描画法である。
提案手法では, 画像形成プロセスと整合する自己認識モジュールを物理に着想を得た。
付加雑音を導入することなく1ステップの推論方式に拡散モデルを適応させ,高品質で忠実な結果を得る。
論文 参考訳(メタデータ) (2025-07-24T03:23:19Z) - RichControl: Structure- and Appearance-Rich Training-Free Spatial Control for Text-to-Image Generation [10.956556608715035]
テキスト・ツー・イメージ(T2I)拡散モデルでは,テキスト・プロンプトから高品質な画像を生成することに成功した。
本稿では, 条件特徴のサンプリングスケジュールをデノナイジングプロセスから切り離すフレキシブルなトレーニングフリーフレームワークを提案する。
再調整スケジュールを導入することでサンプリングプロセスをさらに強化し、外観に富んだプロンプト戦略で視覚的品質を向上させる。
論文 参考訳(メタデータ) (2025-07-03T16:56:15Z) - Diffusion Dynamics Models with Generative State Estimation for Cloth Manipulation [31.868248649812088]
衣服の操作は、非常に複雑なダイナミクス、ほぼ無限の自由度、そして頻繁な自己閉塞によって困難である。
本稿では,知覚と動的モデリングの両方に対する拡散に基づく生成手法を提案する。
本研究では,実際のロボットシステムにおいて,布の折り畳みを効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2025-03-15T05:34:26Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - FFHFlow: Diverse and Uncertainty-Aware Dexterous Grasp Generation via Flow Variational Inference [36.02645364048733]
本稿では,多種多様な頑健なマルチフィンガーグリップを生成するフローベース変分フレームワークFFHFlowを提案する。
流れの可逆性と正確な確率を利用して、FFHFlowは部分的な観測において不確実性を形成する。
また,不確実性を考慮したランキング戦略を定式化することにより,識別的把握評価器をフロー可能性と統合する。
論文 参考訳(メタデータ) (2024-07-21T13:33:08Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Image Reconstruction of Static and Dynamic Scenes through Anisoplanatic
Turbulence [1.6114012813668934]
静的および動的シーケンスの両方で大気乱流を緩和する統一的な手法を提案する。
我々は,新しい時空間非局所平均化手法を用いることで,既存手法と比較して優れた結果を得ることができる。
論文 参考訳(メタデータ) (2020-08-31T19:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。