論文の概要: The Geometry of Noise: Why Diffusion Models Don't Need Noise Conditioning
- arxiv url: http://arxiv.org/abs/2602.18428v1
- Date: Fri, 20 Feb 2026 18:49:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.419487
- Title: The Geometry of Noise: Why Diffusion Models Don't Need Noise Conditioning
- Title(参考訳): 騒音の幾何学:なぜ拡散モデルが騒音条件を必要としないのか
- Authors: Mojtaba Sahraee-Ardakan, Mauricio Delbracio, Peyman Milanfar,
- Abstract要約: 我々は、平衡マッチングやブラインド拡散のような自律的(ノイズに依存しない)生成モデルについて研究する。
自律的なモデルによる生成は単に盲目的ではないことを証明します。
また、自律モデルを用いたサンプリングのための構造安定性条件も確立する。
- 参考スコア(独自算出の注目度): 20.547812775989808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous (noise-agnostic) generative models, such as Equilibrium Matching and blind diffusion, challenge the standard paradigm by learning a single, time-invariant vector field that operates without explicit noise-level conditioning. While recent work suggests that high-dimensional concentration allows these models to implicitly estimate noise levels from corrupted observations, a fundamental paradox remains: what is the underlying landscape being optimized when the noise level is treated as a random variable, and how can a bounded, noise-agnostic network remain stable near the data manifold where gradients typically diverge? We resolve this paradox by formalizing Marginal Energy, $E_{\text{marg}}(\mathbf{u}) = -\log p(\mathbf{u})$, where $p(\mathbf{u}) = \int p(\mathbf{u}|t)p(t)dt$ is the marginal density of the noisy data integrated over a prior distribution of unknown noise levels. We prove that generation using autonomous models is not merely blind denoising, but a specific form of Riemannian gradient flow on this Marginal Energy. Through a novel relative energy decomposition, we demonstrate that while the raw Marginal Energy landscape possesses a $1/t^p$ singularity normal to the data manifold, the learned time-invariant field implicitly incorporates a local conformal metric that perfectly counteracts the geometric singularity, converting an infinitely deep potential well into a stable attractor. We also establish the structural stability conditions for sampling with autonomous models. We identify a ``Jensen Gap'' in noise-prediction parameterizations that acts as a high-gain amplifier for estimation errors, explaining the catastrophic failure observed in deterministic blind models. Conversely, we prove that velocity-based parameterizations are inherently stable because they satisfy a bounded-gain condition that absorbs posterior uncertainty into a smooth geometric drift.
- Abstract(参考訳): エキリビウムマッチングやブラインド拡散のような自律的(ノイズに依存しない)生成モデルは、明示的なノイズレベル条件付けなしで動作する単一の時間不変ベクトル場を学ぶことで標準パラダイムに挑戦する。
ノイズレベルがランダムな変数として扱われるときに、基礎となる景観は最適化されているのか、また、勾配が通常分岐するデータ多様体の近くで、境界付きノイズ非依存のネットワークは、どのように安定しているのか?
このパラドックスは、Marginal Energy, $E_{\text{marg}}(\mathbf{u}) = -\log p(\mathbf{u})$, ここで、$p(\mathbf{u}) = \int p(\mathbf{u}|t)p(t)dt$ は、未知の雑音レベルの事前分布に積分されたノイズデータの限界密度である。
我々は、自律モデルを用いた生成が単に盲点化であるだけでなく、このMarginal Energy上でのリーマン勾配流の特定の形態であることを証明した。
新たな相対エネルギー分解により、生のMarginal Energyのランドスケープがデータ多様体に正規な1/t^p$特異点を持つ一方で、学習時間不変体は、幾何学的特異点を完全に反作用する局所共形計量を暗黙的に含み、無限に深いポテンシャル井戸を安定な誘引子に変換することを示した。
また、自律モデルを用いたサンプリングのための構造安定性条件も確立する。
雑音予測パラメータ化における「ジェンセンギャップ」を推定誤差の高利得増幅器として機能し、決定論的ブラインドモデルで観測された破滅的故障を説明する。
逆に、速度に基づくパラメータ化は、後続の不確かさを滑らかな幾何学的ドリフトに吸収する有界ゲイン条件を満たすため、本質的に安定であることを示す。
関連論文リスト
- Mitigating the Noise Shift for Denoising Generative Models via Noise Awareness Guidance [54.88271057438763]
ノイズアウェアネスガイダンス (NAG) は、事前に定義された騒音スケジュールと整合性を保つために、サンプリング軌道を明示的に制御する補正手法である。
NAGは一貫してノイズシフトを緩和し、主流拡散モデルの生成品質を大幅に改善する。
論文 参考訳(メタデータ) (2025-10-14T13:31:34Z) - The Spacetime of Diffusion Models: An Information Geometry Perspective [40.23096112113255]
決定論的確率フローを用いた標準的なプルバック手法であるComplementODEデコーダが根本的に欠陥があることが示される。
遅延時空$z=(x_t,t)$を導入し、すべてのノイズスケールにわたる分布の族を指数化する。
結果として得られた構造は、ジオデシックが最小限のノイズ列を追跡し、データ間の編集を飾る、原則付き拡散距離編集(Diffusion Distance Edit)を誘導する。
論文 参考訳(メタデータ) (2025-05-23T06:16:58Z) - Non-stationary Diffusion For Probabilistic Time Series Forecasting [3.7687375904925484]
非定常拡散(NsDiff)と呼ばれる拡散に基づく確率的予測フレームワークを開発する。
NsDiffは、デノナイズド拡散に基づく条件生成モデルと、事前訓練された条件平均と分散推定器を組み合わせる。
9つの実世界および合成データセットで実施された実験は、既存のアプローチと比較して、NsDiffの優れた性能を示している。
論文 参考訳(メタデータ) (2025-05-07T09:29:39Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - Variational Nonlinear Kalman Filtering with Unknown Process Noise
Covariance [24.23243651301339]
本稿では,近似ベイズ推定原理に基づく非線形状態推定とモデルパラメータの同定手法を提案する。
シミュレーションおよび実世界のデータを用いて,レーダ目標追尾法の性能を検証した。
論文 参考訳(メタデータ) (2023-05-06T03:34:39Z) - Analyzing and Improving the Optimization Landscape of Noise-Contrastive
Estimation [50.85788484752612]
ノイズコントラスト推定(NCE)は、非正規化確率モデルを学習するための統計的に一貫した手法である。
ノイズ分布の選択がNCEの性能に不可欠であることが実験的に観察されている。
本研究では,不適切な雑音分布を用いた場合,NCEの性能低下の原因を正式に指摘する。
論文 参考訳(メタデータ) (2021-10-21T16:57:45Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。