論文の概要: BUFF: Bayesian Uncertainty Guided Diffusion Probabilistic Model for Single Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2504.03490v1
- Date: Fri, 04 Apr 2025 14:43:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:49:18.210324
- Title: BUFF: Bayesian Uncertainty Guided Diffusion Probabilistic Model for Single Image Super-Resolution
- Title(参考訳): BUFF: 単一画像超解法のためのベイジアン不確実性誘導拡散確率モデル
- Authors: Zihao He, Shengchuan Zhang, Runze Hu, Yunhang Shen, Yan Zhang,
- Abstract要約: ベイジアン不確実性誘導拡散確率モデル(BUFF)を紹介する。
BUFFは、ハイレゾな不確実性マスクを生成するためにベイズネットワークを組み込むことで、自分自身を区別する。
複雑なテクスチャと細部が特徴の領域において、人工物やぼやけを著しく軽減する。
- 参考スコア(独自算出の注目度): 19.568467335629094
- License:
- Abstract: Super-resolution (SR) techniques are critical for enhancing image quality, particularly in scenarios where high-resolution imagery is essential yet limited by hardware constraints. Existing diffusion models for SR have relied predominantly on Gaussian models for noise generation, which often fall short when dealing with the complex and variable texture inherent in natural scenes. To address these deficiencies, we introduce the Bayesian Uncertainty Guided Diffusion Probabilistic Model (BUFF). BUFF distinguishes itself by incorporating a Bayesian network to generate high-resolution uncertainty masks. These masks guide the diffusion process, allowing for the adjustment of noise intensity in a manner that is both context-aware and adaptive. This novel approach not only enhances the fidelity of super-resolved images to their original high-resolution counterparts but also significantly mitigates artifacts and blurring in areas characterized by complex textures and fine details. The model demonstrates exceptional robustness against complex noise patterns and showcases superior adaptability in handling textures and edges within images. Empirical evidence, supported by visual results, illustrates the model's robustness, especially in challenging scenarios, and its effectiveness in addressing common SR issues such as blurring. Experimental evaluations conducted on the DIV2K dataset reveal that BUFF achieves a notable improvement, with a +0.61 increase compared to baseline in SSIM on BSD100, surpassing traditional diffusion approaches by an average additional +0.20dB PSNR gain. These findings underscore the potential of Bayesian methods in enhancing diffusion processes for SR, paving the way for future advancements in the field.
- Abstract(参考訳): 超解像度(SR)技術は、特に高解像度画像がハードウェアの制約によって制限される場合において、画質の向上に不可欠である。
既存のSRの拡散モデルはノイズ生成のためのガウスモデルに大きく依存しており、自然界に固有の複雑で変動的なテクスチャを扱う場合、しばしば不足する。
これらの欠陥に対処するために,ベイズ的不確実性誘導拡散確率モデル(BUFF)を導入する。
BUFFは、ハイレゾな不確実性マスクを生成するためにベイズネットワークを組み込むことで、自分自身を区別する。
これらのマスクは拡散過程をガイドし、文脈認識と適応の両方の方法でノイズ強度の調整を可能にする。
この新しいアプローチは、高解像度画像に対する超解像の忠実度を高めるだけでなく、複雑なテクスチャや細部が特徴の領域において、アーティファクトを著しく軽減し、ぼやけさせる。
このモデルは複雑なノイズパターンに対して例外的な堅牢性を示し、画像内のテクスチャやエッジを扱う際に優れた適応性を示す。
視覚的な結果によって支えられた実証的な証拠は、特に挑戦的なシナリオにおけるモデルの頑健さと、ぼやけなどの一般的なSR問題に対処する効果を示している。
DIV2Kデータセットで行った実験的評価によると、BUFFはBSD100上のSSIMのベースラインに比べて+0.61増加し、平均的な+0.20dB PSNRゲインによる従来の拡散アプローチを上回っている。
これらの知見は、SRの拡散過程の強化におけるベイズ法の可能性を強調し、今後の分野の発展への道を開くものである。
関連論文リスト
- InpDiffusion: Image Inpainting Localization via Conditional Diffusion Models [10.213390634031049]
現在のIIL法は2つの大きな課題に直面している。
拡散モデルを用いた条件付きマスク生成タスクとしてIILを扱う新しいパラダイムを提案する。
我々の手法であるInpDiffusionは、画像意味条件の統合によって強化された復調過程を利用して、予測を段階的に洗練する。
論文 参考訳(メタデータ) (2025-01-06T07:32:12Z) - Diffusion Prior Interpolation for Flexibility Real-World Face Super-Resolution [48.34173818491552]
拡散事前補間(DPI)は、一貫性と多様性のバランスをとることができ、事前訓練されたモデルにシームレスに統合することができる。
合成および実データに対して行われた広範な実験において、DPIはSOTA FSR法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-12-21T09:28:44Z) - FaithDiff: Unleashing Diffusion Priors for Faithful Image Super-resolution [48.88184541515326]
本稿では,忠実な画像SRのための遅延拡散モデル(LDM)のパワーをフル活用するために,FithDiffというシンプルで効果的な手法を提案する。
高品質画像上で事前学習した拡散モデルを凍結する既存の拡散ベースSR法とは対照的に,有用な情報を特定し,忠実な構造を復元する前に拡散を解き放つことを提案する。
論文 参考訳(メタデータ) (2024-11-27T23:58:03Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - Adaptive Multi-modal Fusion of Spatially Variant Kernel Refinement with Diffusion Model for Blind Image Super-Resolution [23.34647832483913]
我々は,Blind Image textbfSuper-textbfResolutionのための拡散モデルを用いた適応多モード固定法(Adaptive Multi-modal Fusion of textbfSpatially Variant Kernel Refinement with Diffusion Model)を提案する。
また,アダプティブ・マルチモーダル・フュージョン (AMF) モジュールを導入し,低解像度画像,深度マップ,ぼかしカーネルといった3つのモードからの情報を整列させる。
論文 参考訳(メタデータ) (2024-03-09T06:01:25Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。