論文の概要: An explicit formulation of the learned noise predictor $ε_θ({\bf x}_t, t)$ via the forward-process noise $ε_{t}$ in denoising diffusion probabilistic models (DDPMs)
- arxiv url: http://arxiv.org/abs/2507.04203v1
- Date: Sun, 06 Jul 2025 01:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.065383
- Title: An explicit formulation of the learned noise predictor $ε_θ({\bf x}_t, t)$ via the forward-process noise $ε_{t}$ in denoising diffusion probabilistic models (DDPMs)
- Title(参考訳): 拡散確率モデル(DDPM)における前処理ノイズ$ε_θ({\bf x}_t, t)$の明示的定式化
- Authors: KiHyun Yun,
- Abstract要約: 学習したノイズ予測器 $epsilon_theta (bf x_t, t)$ は、前処理ノイズ $epsilon_t$ を近似するように訓練される。
我々は、前処理のノイズ$epsilon_t$が、学習した予測子$epsilon_theta (bf x_t, t)$にどのように貢献するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In denoising diffusion probabilistic models (DDPMs), the learned noise predictor $ \epsilon_{\theta} ( {\bf x}_t , t)$ is trained to approximate the forward-process noise $\epsilon_t$. The equality $\nabla_{{\bf x}_t} \log q({\bf x}_t) = -\frac 1 {\sqrt {1- {\bar \alpha}_t} } \epsilon_{\theta} ( {\bf x}_t , t)$ plays a fundamental role in both theoretical analyses and algorithmic design, and thus is frequently employed across diffusion-based generative models. In this paper, an explicit formulation of $ \epsilon_{\theta} ( {\bf x}_t , t)$ in terms of the forward-process noise $\epsilon_t$ is derived. This result show how the forward-process noise $\epsilon_t$ contributes to the learned predictor $ \epsilon_{\theta} ( {\bf x}_t , t)$. Furthermore, based on this formulation, we present a novel and mathematically rigorous proof of the fundamental equality above, clarifying its origin and providing new theoretical insight into the structure of diffusion models.
- Abstract(参考訳): 拡散確率モデル(DDPM)では、学習ノイズ予測器 $ \epsilon_{\theta} ( {\bf x}_t , t)$ が前処理ノイズ $\epsilon_t$ を近似するように訓練される。
等式 $\nabla_{{\bf x}_t} \log q({\bf x}_t) = -\frac 1 {\sqrt {1- {\bar \alpha}_t} } \epsilon_{\theta} ( {\bf x}_t , t)$ は理論解析とアルゴリズム設計の両方において基本的な役割を果たすため、拡散に基づく生成モデルにおいて頻繁に用いられる。
本稿では、前処理ノイズ $\epsilon_t$ の観点から、$ \epsilon_{\theta} ( {\bf x}_t , t)$ の明示的な定式化を導出する。
この結果は、前処理のノイズ $\epsilon_t$ が学習した予測子 $ \epsilon_{\theta} ( {\bf x}_t , t)$ にどのように貢献するかを示している。
さらに、この定式化に基づいて、上記の基本等式を数学的に厳密に証明し、その起源を明らかにし、拡散モデルの構造に関する新たな理論的洞察を与える。
関連論文リスト
- Computational bottlenecks for denoising diffusions [8.05574597775852]
最適値に非常に近いドリフトが存在するのに対して,ターゲット値から非常に遠い分布を持つ試料が得られた。
サンプリングが容易な確率分布を$mu$で研究することで、逆の証拠を与えるが、拡散過程のドリフトは難解である。
論文 参考訳(メタデータ) (2025-03-11T04:21:01Z) - Outsourced diffusion sampling: Efficient posterior inference in latent spaces of generative models [65.71506381302815]
本稿では、$p(mathbfxmidmathbfy) propto p_theta(mathbfx)$ という形式の後続分布からサンプリングするコストを償却する。
多くのモデルや制約に対して、後部ノイズ空間はデータ空間よりも滑らかであり、償却推論により適している。
論文 参考訳(メタデータ) (2025-02-10T19:49:54Z) - Non-asymptotic bounds for forward processes in denoising diffusions: Ornstein-Uhlenbeck is hard to beat [49.1574468325115]
本稿では,全変動(TV)における前方拡散誤差の非漸近的境界について述べる。
我々は、R$からFarthestモードまでの距離でマルチモーダルデータ分布をパラメライズし、加法的および乗法的雑音による前方拡散を考察する。
論文 参考訳(メタデータ) (2024-08-25T10:28:31Z) - A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。