論文の概要: Diffusion-Based sRGB Real Noise Generation via Prompt-Driven Noise Representation Learning
- arxiv url: http://arxiv.org/abs/2603.04870v1
- Date: Thu, 05 Mar 2026 06:54:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.105582
- Title: Diffusion-Based sRGB Real Noise Generation via Prompt-Driven Noise Representation Learning
- Title(参考訳): プロンプト駆動型雑音表現学習による拡散型sRGB実雑音生成
- Authors: Jaekyun Ko, Dongjin Kim, Soomin Lee, Guanghui Wang, Tae Hyun Kim,
- Abstract要約: 我々はPNG(Prompt-Driven Noise Generation)と呼ばれる新しいフレームワークを提案する。
このモデルは実世界の入力ノイズの特徴を捉えた高次元のプロンプト特徴を得ることができる。
明示的なカメラメタデータへの依存を排除し,ノイズ合成の一般化性と適用性を大幅に向上させる。
- 参考スコア(独自算出の注目度): 16.09820578603153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Denoising in the sRGB image space is challenging due to noise variability. Although end-to-end methods perform well, their effectiveness in real-world scenarios is limited by the scarcity of real noisy-clean image pairs, which are expensive and difficult to collect. To address this limitation, several generative methods have been developed to synthesize realistic noisy images from limited data. These generative approaches often rely on camera metadata during both training and testing to synthesize real-world noise. However, the lack of metadata or inconsistencies between devices restricts their usability. Therefore, we propose a novel framework called Prompt-Driven Noise Generation (PNG). This model is capable of acquiring high-dimensional prompt features that capture the characteristics of real-world input noise and creating a variety of realistic noisy images consistent with the distribution of the input noise. By eliminating the dependency on explicit camera metadata, our approach significantly enhances the generalizability and applicability of noise synthesis. Comprehensive experiments reveal that our model effectively produces realistic noisy images and show the successful application of these generated images in removing real-world noise across various benchmark datasets.
- Abstract(参考訳): ノイズ変動のため、sRGB画像空間でのノイズ発生は困難である。
エンド・ツー・エンドの手法は良好に機能するが、実際のノイズ・クリーンな画像ペアの不足により現実のシナリオにおけるそれらの有効性は制限され、収集は高価で困難である。
この制限に対処するため、限られたデータから現実的な雑音像を合成するいくつかの生成法が開発されている。
これらの生成的アプローチは、実世界のノイズを合成するために、トレーニングとテストの両方でカメラメタデータに依存することが多い。
しかし、デバイス間のメタデータや一貫性の欠如は、ユーザビリティを制限している。
そこで本研究では,PNG(Prompt-Driven Noise Generation)と呼ばれる新しいフレームワークを提案する。
このモデルは,実世界の入力ノイズの特徴を捉え,入力ノイズの分布に整合した様々な現実的なノイズ画像を生成する,高次元のプロンプト特性を取得することができる。
明示的なカメラメタデータへの依存を排除し,ノイズ合成の一般化性と適用性を大幅に向上させる。
包括的実験により,本モデルは現実的な雑音像を効果的に生成し,これらの生成した画像の様々なベンチマークデータセットにおける実環境ノイズ除去への応用を成功例に示す。
関連論文リスト
- GuidNoise: Single-Pair Guided Diffusion for Generalized Noise Synthesis [9.253859022117306]
一般化雑音合成のための単対誘導拡散
GuidNoiseは単一のノイズ/クリーンペアをガイダンスとして使用しており、トレーニングセット内で簡単に手に入ることが多い。
誘導型アフィン特徴量修正(GAFM)とノイズ対応精細損失を用いて拡散モデルの本質的なポテンシャルを利用する。
論文 参考訳(メタデータ) (2025-12-04T05:00:00Z) - NoiseDiffusion: Correcting Noise for Image Interpolation with Diffusion Models beyond Spherical Linear Interpolation [86.7260950382448]
画像の妥当性を補正する新しい手法としてノイズ拡散法を提案する。
NoiseDiffusionはノイズの多い画像空間内で動作し、これらのノイズの多い画像に生画像を注入することで、情報損失の課題に対処する。
論文 参考訳(メタデータ) (2024-03-13T12:32:25Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - NoiseTransfer: Image Noise Generation with Contrastive Embeddings [9.322843611215486]
本稿では,複数のノイズ分布を持つ雑音像を合成できる新しい生成モデルを提案する。
我々は、雑音の識別可能な潜在特徴を学習するために、最近のコントラスト学習を採用する。
本モデルでは,単一の基準雑音画像からのみノイズ特性を伝達することにより,新しい雑音画像を生成することができる。
論文 参考訳(メタデータ) (2023-01-31T11:09:15Z) - Learning to Generate Realistic Noisy Images via Pixel-level Noise-aware
Adversarial Training [50.018580462619425]
我々は,PNGAN(Pixel-level Noise-aware Generative Adrial Network)という新しいフレームワークを提案する。
PNGANは、トレーニング済みのリアルデノイザーを使用して、フェイク画像とリアルノイズ画像をほぼノイズのないソリューション空間にマッピングする。
より優れたノイズフィッティングを実現するため,ジェネレータとしてSimple Multi-versa-scale Network (SMNet) を提案する。
論文 参考訳(メタデータ) (2022-04-06T14:09:02Z) - C2N: Practical Generative Noise Modeling for Real-World Denoising [53.96391787869974]
両例を使わずに複雑な実世界の騒音を模倣するクリーン・ツー・ノイズ画像生成フレームワーク,すなわちC2Nを導入する。
我々は,C2Nの騒音発生器を実世界の騒音特性の成分に応じて構築し,広い範囲の騒音を正確に表現する。
論文 参考訳(メタデータ) (2022-02-19T05:53:46Z) - Rethinking Noise Synthesis and Modeling in Raw Denoising [75.55136662685341]
センサの実際の雑音を直接サンプリングすることで、ノイズを合成する新しい視点を導入する。
それは本質的に、異なるカメラセンサーに対して正確な生画像ノイズを発生させる。
論文 参考訳(メタデータ) (2021-10-10T10:45:24Z) - Physics-based Noise Modeling for Extreme Low-light Photography [63.65570751728917]
CMOS光センサの撮像パイプラインにおけるノイズ統計について検討する。
実雑音構造を正確に特徴付けることのできる包括的ノイズモデルを定式化する。
我々のノイズモデルは、学習に基づく低照度復調アルゴリズムのためのリアルなトレーニングデータを合成するのに利用できる。
論文 参考訳(メタデータ) (2021-08-04T16:36:29Z) - Adaptive noise imitation for image denoising [58.21456707617451]
本研究では,自然雑音画像からノイズデータを合成できる新しいテキストバッファ適応ノイズ模倣(ADANI)アルゴリズムを開発した。
現実的なノイズを生成するため、ノイズ発生装置はノイズ発生のガイドとなる雑音/クリーン画像を入力として利用する。
ADANIから出力されるノイズデータとそれに対応する基盤構造とを結合すると、デノイングCNNは、完全に教師された方法で訓練される。
論文 参考訳(メタデータ) (2020-11-30T02:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。