論文の概要: Deterministic Dynamics of Sampling Processes in Score-Based Diffusion Models with Multiplicative Noise Conditioning
- arxiv url: http://arxiv.org/abs/2601.12965v1
- Date: Mon, 19 Jan 2026 11:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.879781
- Title: Deterministic Dynamics of Sampling Processes in Score-Based Diffusion Models with Multiplicative Noise Conditioning
- Title(参考訳): 乗算雑音条件付きスコアベース拡散モデルにおけるサンプリング過程の決定論的ダイナミクス
- Authors: Doheon Kim,
- Abstract要約: スコアベース拡散モデルでは,拡散過程に関連するスコア関数を学習することにより,新しいサンプルを生成する。
SongとErmonによる以前の研究は、乗法的なノイズ条件付けを用いたニューラルネットワークが依然として十分なサンプルを生成することを実証した。
我々は、関連する微分方程式の決定論的ダイナミクスを研究することによって、この現象の理論的説明を与える。
- 参考スコア(独自算出の注目度): 0.2538209532048866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Score-based diffusion models generate new samples by learning the score function associated with a diffusion process. While the effectiveness of these models can be theoretically explained using differential equations related to the sampling process, previous work by Song and Ermon (2020) demonstrated that neural networks using multiplicative noise conditioning can still generate satisfactory samples. In this setup, the model is expressed as the product of two functions: one depending on the spatial variable and the other on the noise magnitude. This structure limits the model's ability to represent a more general relationship between the spatial variable and the noise, indicating that it cannot fully learn the correct score. Despite this limitation, the models perform well in practice. In this work, we provide a theoretical explanation for this phenomenon by studying the deterministic dynamics of the associated differential equations, offering insight into how the model operates.
- Abstract(参考訳): スコアベース拡散モデルでは,拡散過程に関連するスコア関数を学習することにより,新しいサンプルを生成する。
これらのモデルの有効性はサンプリング過程に関連する微分方程式を用いて理論的に説明できるが、Song と Ermon (2020) による以前の研究は、乗法的雑音条件を用いたニューラルネットワークが良好なサンプルを生成できることを示した。
この設定では、モデルは2つの関数の積として表される: 1つは空間変数に依存し、もう1つは雑音の大きさに依存する。
この構造は、モデルが空間変数と雑音の間のより一般的な関係を表現する能力を制限し、正しいスコアを完全に学習できないことを示す。
この制限にもかかわらず、モデルは実際によく機能する。
本研究では、関連する微分方程式の決定論的ダイナミクスを研究することによって、この現象に関する理論的説明を行い、モデルがどのように機能するかを考察する。
関連論文リスト
- Diffusion models for multivariate subsurface generation and efficient probabilistic inversion [0.0]
拡散モデルは、深い生成モデリングタスクのための安定したトレーニングと最先端のパフォーマンスを提供する。
本稿では拡散モデルに固有のノイズ汚染を考慮した近似法を提案する。
統計的ロバスト性は有意に向上し, 後部確率密度関数のサンプリングが向上した。
論文 参考訳(メタデータ) (2025-07-21T17:10:16Z) - Diffusion models under low-noise regime [3.729242965449096]
拡散モデルは, 汚損レベルが小さい場合に有効であることを示す。
トレーニングセットのサイズ,データ幾何,および客観選択形状のモデル化方法の定量化を行う。
この研究は、実用的なアプリケーションにおける生成モデルの信頼性に対する理解のギャップに対処し始めます。
論文 参考訳(メタデータ) (2025-06-09T15:07:16Z) - Discrete vs. Continuous Trade-offs for Generative Models [0.0]
本研究は拡散確率モデル(DDPM)の理論的および実践的基礎を探求する。
プロセスとブラウン運動を利用して複雑なデータ分布をモデル化するDDPMとスコアベース生成モデル。
論文 参考訳(メタデータ) (2024-12-26T08:14:27Z) - Analyzing Neural Network-Based Generative Diffusion Models through Convex Optimization [45.72323731094864]
本稿では,2層ニューラルネットワークを用いた拡散モデル解析のための理論的枠組みを提案する。
我々は,1つの凸プログラムを解くことで,スコア予測のための浅層ニューラルネットワークのトレーニングが可能であることを証明した。
本結果は, ニューラルネットワークに基づく拡散モデルが漸近的でない環境で何を学習するかを, 正確に評価するものである。
論文 参考訳(メタデータ) (2024-02-03T00:20:25Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。