論文の概要: BlurDM: A Blur Diffusion Model for Image Deblurring
- arxiv url: http://arxiv.org/abs/2512.03979v1
- Date: Wed, 03 Dec 2025 17:10:44 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 11:54:52.062284
- Title: BlurDM: A Blur Diffusion Model for Image Deblurring
- Title(参考訳): BlurDM:画像劣化のためのBlur拡散モデル
- Authors: Jin-Ting He, Fu-Jen Tsai, Yan-Tsung Peng, Min-Hung Chen, Chia-Wen Lin, Yen-Yu Lin,
- Abstract要約: 画像劣化のためのBlurDM(Blur Diffusion Model)を提案する。
BlurDMは二重拡散フォワードスキームを通じてぼやけた生成過程を暗黙的にモデル化する。
逆生成の過程では、双対なデノイングとデブロアリングの定式化を導出する。
実験により、BlurDMは既存のデブロアリング法を大幅に強化することが示された。
- 参考スコア(独自算出の注目度): 52.34718859688771
- License:
- Abstract: Diffusion models show promise for dynamic scene deblurring; however, existing studies often fail to leverage the intrinsic nature of the blurring process within diffusion models, limiting their full potential. To address it, we present a Blur Diffusion Model (BlurDM), which seamlessly integrates the blur formation process into diffusion for image deblurring. Observing that motion blur stems from continuous exposure, BlurDM implicitly models the blur formation process through a dual-diffusion forward scheme, diffusing both noise and blur onto a sharp image. During the reverse generation process, we derive a dual denoising and deblurring formulation, enabling BlurDM to recover the sharp image by simultaneously denoising and deblurring, given pure Gaussian noise conditioned on the blurred image as input. Additionally, to efficiently integrate BlurDM into deblurring networks, we perform BlurDM in the latent space, forming a flexible prior generation network for deblurring. Extensive experiments demonstrate that BlurDM significantly and consistently enhances existing deblurring methods on four benchmark datasets. The source code is available at https://github.com/Jin-Ting-He/BlurDM.
- Abstract(参考訳): 拡散モデルは動的シーンの劣化を約束するが、既存の研究は拡散モデル内でのぼやけた過程の本質的な性質を生かせず、その潜在能力を最大限に制限する。
そこで我々はBlurDM(Blur Diffusion Model)を提案する。
動きのぼかしが連続的な露出から生じるのを見て、BlurDMは暗黙的にぼかしの形成過程を二重拡散フォワードスキームでモデル化し、ノイズとぼかしの両方をシャープな画像に拡散させる。
逆生成過程において,2つのデノイングとデブロアリングの定式化が導出され,ブラーDMは,ぼやけた画像に条件付けされた純粋ガウス雑音を入力として,同時にデノナイズとデブロアリングによりシャープイメージを復元することができる。
さらに,BlurDMを遅延ネットワークに効率よく統合するため,遅延空間でBlurDMを実行し,フレキシブルな事前生成ネットワークを構築した。
大規模な実験により、BlurDMは4つのベンチマークデータセット上の既存のデブロアリングメソッドを著しく拡張することが示された。
ソースコードはhttps://github.com/Jin-Ting-He/BlurDMで入手できる。
関連論文リスト
- BokehDiff: Neural Lens Blur with One-Step Diffusion [62.59018200914645]
ボケフディフ(BokehDiff)は、物理的に正確で視覚的に魅力的な結果が得られるレンズボウ描画法である。
提案手法では, 画像形成プロセスと整合する自己認識モジュールを物理に着想を得た。
付加雑音を導入することなく1ステップの推論方式に拡散モデルを適応させ,高品質で忠実な結果を得る。
論文 参考訳(メタデータ) (2025-07-24T03:23:19Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - ID-Blau: Image Deblurring by Implicit Diffusion-based reBLurring AUgmentation [45.582704677784825]
Inlicit Diffusion-based reBLurring AUgmentation (ID-Blau) を提案する。
多様なぼやけた条件をサンプリングすることで、ID-Blauはトレーニングセットに見えない様々なぼやけた画像を生成することができる。
以上の結果から,ID-Blauはリアルなぼやけた画像を生成することができ,最先端のデブロアリングモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-12-18T07:47:43Z) - Residual Denoising Diffusion Models [12.698791701225499]
本稿では,従来の単音化拡散過程を残差拡散と雑音拡散に分解する新しい二重拡散過程を提案する。
この二重拡散フレームワークは、デノナイジングに基づく拡散モデルを拡張し、画像生成と復元の両方のための統一的で解釈可能なモデルへと拡張する。
革新的なフレームワークのさらなる探索、応用、開発を促進するために、コードと事前訓練されたモデルを提供しています。
論文 参考訳(メタデータ) (2023-08-25T23:54:15Z) - VideoFusion: Decomposed Diffusion Models for High-Quality Video
Generation [88.49030739715701]
本研究は, フレームごとのノイズを, 全フレーム間で共有されるベースノイズ, 時間軸に沿って変化する残雑音に分解することで, 拡散過程を分解する。
様々なデータセットの実験により,ビデオフュージョンと呼ばれる我々の手法が,高品質なビデオ生成において,GANベースと拡散ベースの両方の選択肢を上回ることが確認された。
論文 参考訳(メタデータ) (2023-03-15T02:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。