論文の概要: GuidNoise: Single-Pair Guided Diffusion for Generalized Noise Synthesis
- arxiv url: http://arxiv.org/abs/2512.04456v1
- Date: Thu, 04 Dec 2025 05:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.997007
- Title: GuidNoise: Single-Pair Guided Diffusion for Generalized Noise Synthesis
- Title(参考訳): GuidNoise:一般雑音合成のための単対誘導拡散
- Authors: Changjin Kim, HyeokJun Lee, YoungJoon Yoo,
- Abstract要約: 一般化雑音合成のための単対誘導拡散
GuidNoiseは単一のノイズ/クリーンペアをガイダンスとして使用しており、トレーニングセット内で簡単に手に入ることが多い。
誘導型アフィン特徴量修正(GAFM)とノイズ対応精細損失を用いて拡散モデルの本質的なポテンシャルを利用する。
- 参考スコア(独自算出の注目度): 9.253859022117306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent image denoising methods have leveraged generative modeling for real noise synthesis to address the costly acquisition of real-world noisy data. However, these generative models typically require camera metadata and extensive target-specific noisy-clean image pairs, often showing limited generalization between settings. In this paper, to mitigate the prerequisites, we propose a Single-Pair Guided Diffusion for generalized noise synthesis GuidNoise, which uses a single noisy/clean pair as the guidance, often easily obtained by itself within a training set. To train GuidNoise, which generates synthetic noisy images from the guidance, we introduce a guidance-aware affine feature modification (GAFM) and a noise-aware refine loss to leverage the inherent potential of diffusion models. This loss function refines the diffusion model's backward process, making the model more adept at generating realistic noise distributions. The GuidNoise synthesizes high-quality noisy images under diverse noise environments without additional metadata during both training and inference. Additionally, GuidNoise enables the efficient generation of noisy-clean image pairs at inference time, making synthetic noise readily applicable for augmenting training data. This self-augmentation significantly improves denoising performance, especially in practical scenarios with lightweight models and limited training data. The code is available at https://github.com/chjinny/GuidNoise.
- Abstract(参考訳): 近年の画像復号化手法は, 実世界のノイズデータの高コスト取得に対処するために, 生成モデルを用いて実雑音合成を行っている。
しかしながら、これらの生成モデルは、通常、カメラメタデータと広範囲なターゲット固有のノイズとクリーンなイメージペアを必要とし、しばしば設定間の限定的な一般化を示す。
本稿では,一般雑音合成のための単一ペア誘導拡散法を提案する。
誘導から合成ノイズ画像を生成するGuidNoiseを訓練するために,誘導対応アフィン特徴量修正(GAFM)とノイズ対応精細損失を導入し,拡散モデルの本質的ポテンシャルを活用する。
この損失関数は拡散モデルの後方過程を洗練させ、モデルが現実的な雑音分布を生成するのにより適している。
GuidNoiseは、トレーニングと推論の間にメタデータを追加することなく、様々なノイズ環境下で高品質なノイズ画像を生成する。
さらに、GuidNoiseは、推論時にノイズクリーンな画像ペアを効率的に生成することができ、合成ノイズをトレーニングデータの拡張に容易に適用することができる。
この自己拡張は、特に軽量モデルと限られたトレーニングデータを持つ実践的なシナリオにおいて、パフォーマンスを著しく向上させる。
コードはhttps://github.com/chjinny/GuidNoise.comで入手できる。
関連論文リスト
- 2-Shots in the Dark: Low-Light Denoising with Minimal Data Acquisition [24.81422645983973]
学習ベースのデノイザは、高品質なイメージを再構築する可能性がある。
トレーニングには、これらのデノイザはクリーンでノイズの多い画像の大規模なデータセットを必要とする。
ノイズ合成は大規模データ取得の代替手段である。
論文 参考訳(メタデータ) (2025-12-02T21:32:31Z) - Lightweight Data-Free Denoising for Detail-Preserving Biomedical Image Restoration [5.07046926436163]
現在の自己監督型復調技術は目覚ましい結果をもたらすが、実際の応用は計算やメモリの要求によってしばしば制限される。
高速デノイングと高画質画像復元を両立させる超軽量モデルを提案する。
論文 参考訳(メタデータ) (2025-10-17T12:59:21Z) - Mitigating the Noise Shift for Denoising Generative Models via Noise Awareness Guidance [54.88271057438763]
ノイズアウェアネスガイダンス (NAG) は、事前に定義された騒音スケジュールと整合性を保つために、サンプリング軌道を明示的に制御する補正手法である。
NAGは一貫してノイズシフトを緩和し、主流拡散モデルの生成品質を大幅に改善する。
論文 参考訳(メタデータ) (2025-10-14T13:31:34Z) - Dark Noise Diffusion: Noise Synthesis for Low-Light Image Denoising [22.897202020483576]
低照度写真は、限られた光子による信号対雑音比の低い画像を生成する。
ディープラーニングの手法はうまく機能するが、取得には実用的でないペア画像の大規模なデータセットが必要である。
本稿では,低照度雑音の複雑な分布を捉える拡散モデルについて検討する。
論文 参考訳(メタデータ) (2025-03-14T10:16:54Z) - Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Noise2NoiseFlow: Realistic Camera Noise Modeling without Clean Images [35.29066692454865]
本稿では,ノイズモデルとデノイザを同時にトレーニングするためのフレームワークを提案する。
ノイズ/クリーンなペア画像データではなく、ノイズの多いイメージのペアに依存します。
トレーニングされたデノイザーは、教師付きおよび弱教師付きベースラインデノイジングアプローチの両方において、大幅に改善される。
論文 参考訳(メタデータ) (2022-06-02T15:31:40Z) - C2N: Practical Generative Noise Modeling for Real-World Denoising [53.96391787869974]
両例を使わずに複雑な実世界の騒音を模倣するクリーン・ツー・ノイズ画像生成フレームワーク,すなわちC2Nを導入する。
我々は,C2Nの騒音発生器を実世界の騒音特性の成分に応じて構築し,広い範囲の騒音を正確に表現する。
論文 参考訳(メタデータ) (2022-02-19T05:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。