論文の概要: A Noise is Worth Diffusion Guidance
- arxiv url: http://arxiv.org/abs/2412.03895v1
- Date: Thu, 05 Dec 2024 06:09:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:42:56.235757
- Title: A Noise is Worth Diffusion Guidance
- Title(参考訳): 騒音は拡散誘導である
- Authors: Donghoon Ahn, Jiwon Kang, Sanghyun Lee, Jaewon Min, Minjae Kim, Wooseok Jang, Hyoungwon Cho, Sayak Paul, SeonHwa Kim, Eunju Cha, Kyong Hwan Jin, Seungryong Kim,
- Abstract要約: 現在の拡散モデルは、ガイダンスなしで信頼できる画像を生成するのに苦労している。
本稿では,誘導手法を初期雑音の1つの改善に置き換える新しい手法を提案する。
我々のノイズ除去モデルは、効率的なノイズ空間学習を活用し、50Kのテキストイメージペアで高速収束と強力な性能を実現する。
- 参考スコア(独自算出の注目度): 36.912490607355295
- License:
- Abstract: Diffusion models excel in generating high-quality images. However, current diffusion models struggle to produce reliable images without guidance methods, such as classifier-free guidance (CFG). Are guidance methods truly necessary? Observing that noise obtained via diffusion inversion can reconstruct high-quality images without guidance, we focus on the initial noise of the denoising pipeline. By mapping Gaussian noise to `guidance-free noise', we uncover that small low-magnitude low-frequency components significantly enhance the denoising process, removing the need for guidance and thus improving both inference throughput and memory. Expanding on this, we propose \ours, a novel method that replaces guidance methods with a single refinement of the initial noise. This refined noise enables high-quality image generation without guidance, within the same diffusion pipeline. Our noise-refining model leverages efficient noise-space learning, achieving rapid convergence and strong performance with just 50K text-image pairs. We validate its effectiveness across diverse metrics and analyze how refined noise can eliminate the need for guidance. See our project page: https://cvlab-kaist.github.io/NoiseRefine/.
- Abstract(参考訳): 拡散モデルは高品質な画像を生成するのに優れている。
しかし、現在の拡散モデルは、分類器フリーガイダンス(CFG)のようなガイダンス手法を使わずに、信頼できる画像を生成するのに苦労している。
ガイダンス手法は本当に必要か?
拡散インバージョンにより得られたノイズがガイダンスなしで高品質な画像の再構成を可能とすることで、デノナイジングパイプラインの初期ノイズに焦点をあてる。
ガウスノイズを「誘導不要ノイズ」にマッピングすることにより、低次低周波成分がデノナイジング過程を著しく向上させ、ガイダンスの必要性を排除し、推論スループットとメモリの両方を改善することを明らかにする。
そこで本研究では,誘導手法を初期雑音の1つの改善に置き換える新しい手法であるShaoursを提案する。
この改良されたノイズは、同じ拡散パイプライン内でガイダンスなしで高品質な画像生成を可能にする。
我々のノイズ除去モデルは、効率的なノイズ空間学習を活用し、50Kのテキストイメージペアで高速収束と強力な性能を実現する。
様々な指標にまたがってその有効性を検証し、ノイズがいかに洗練され、ガイダンスの必要性を排除できるかを分析する。
プロジェクトページ https://cvlab-kaist.github.io/NoiseRefine/ を参照してください。
関連論文リスト
- InitNO: Boosting Text-to-Image Diffusion Models via Initial Noise Optimization [27.508861002013358]
InitNOは、意味的に忠実な画像の初期ノイズを洗練させるパラダイムである。
戦略的に構築されたノイズ最適化パイプラインは、初期ノイズを有効領域へ導くために開発された。
厳密な実験によって検証された本手法は,テキストのプロンプトに厳密な一致で画像を生成する能力を示す。
論文 参考訳(メタデータ) (2024-04-06T14:56:59Z) - NoiseDiffusion: Correcting Noise for Image Interpolation with Diffusion Models beyond Spherical Linear Interpolation [86.7260950382448]
画像の妥当性を補正する新しい手法としてノイズ拡散法を提案する。
NoiseDiffusionはノイズの多い画像空間内で動作し、これらのノイズの多い画像に生画像を注入することで、情報損失の課題に対処する。
論文 参考訳(メタデータ) (2024-03-13T12:32:25Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - A Generative Model for Digital Camera Noise Synthesis [12.236112464800403]
クリーンな特徴をガイダンスとして利用し,続いてネットワークにノイズ注入を行う効果的な生成モデルを提案する。
具体的には、ジェネレータはスキップ接続を持つUNetのような構造を踏襲するが、ダウンサンプリングやアップサンプリングは行わない。
提案手法は,カメラノイズを合成するための既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-16T10:17:33Z) - Learning to Generate Realistic Noisy Images via Pixel-level Noise-aware
Adversarial Training [50.018580462619425]
我々は,PNGAN(Pixel-level Noise-aware Generative Adrial Network)という新しいフレームワークを提案する。
PNGANは、トレーニング済みのリアルデノイザーを使用して、フェイク画像とリアルノイズ画像をほぼノイズのないソリューション空間にマッピングする。
より優れたノイズフィッティングを実現するため,ジェネレータとしてSimple Multi-versa-scale Network (SMNet) を提案する。
論文 参考訳(メタデータ) (2022-04-06T14:09:02Z) - IDR: Self-Supervised Image Denoising via Iterative Data Refinement [66.5510583957863]
本稿では,最先端のデノナイジング性能を実現するために,教師なしの実用的なデノナイジング手法を提案する。
本手法では, 1つのノイズ画像と1つのノイズモデルしか必要とせず, 実際の生画像に容易にアクセス可能である。
実世界のアプリケーションにおける生画像復調性能を評価するため,500シーンのシーンを含む高品質な生画像データセットSenseNoise-500を構築した。
論文 参考訳(メタデータ) (2021-11-29T07:22:53Z) - Rethinking Noise Synthesis and Modeling in Raw Denoising [75.55136662685341]
センサの実際の雑音を直接サンプリングすることで、ノイズを合成する新しい視点を導入する。
それは本質的に、異なるカメラセンサーに対して正確な生画像ノイズを発生させる。
論文 参考訳(メタデータ) (2021-10-10T10:45:24Z) - Dual Adversarial Network: Toward Real-world Noise Removal and Noise
Generation [52.75909685172843]
実世界の画像ノイズ除去は、コンピュータビジョンにおける長年の課題である。
本稿では,ノイズ除去およびノイズ発生タスクに対処する新しい統合フレームワークを提案する。
本手法はクリーンノイズ画像対の連成分布を学習する。
論文 参考訳(メタデータ) (2020-07-12T09:16:06Z) - Learning Model-Blind Temporal Denoisers without Ground Truths [46.778450578529814]
合成データで訓練されたデノイザーは、未知のノイズの多様性に対処できないことが多い。
従来の画像ベース手法は、ビデオデノイザに直接適用した場合、ノイズが過度に収まる。
本稿では,これらの課題に対処する上で有効な,ビデオ・デノベーション・ネットワークの汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-07T07:19:48Z) - Handling noise in image deblurring via joint learning [0.3407858371718068]
多くのブラインドデブロワー法は、ぼやけた画像はノイズのないものと仮定し、ノイズのあるぼやけた画像に対して不満足に処理する。
本稿では,デノイザサブネットワークとデブロワーサブネットワークからなるカスケードフレームワークを提案する。
共同学習は, 脱臭後の残音が脱臭に及ぼす影響を低減し, 重騒音に対する脱臭の堅牢性を向上させる。
論文 参考訳(メタデータ) (2020-01-27T12:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。