論文の概要: Understanding Diffusion Models via Ratio-Based Function Approximation with SignReLU Networks
- arxiv url: http://arxiv.org/abs/2601.21242v1
- Date: Thu, 29 Jan 2026 04:01:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.563012
- Title: Understanding Diffusion Models via Ratio-Based Function Approximation with SignReLU Networks
- Title(参考訳): SignReLUネットワークを用いた比関数近似による拡散モデルの理解
- Authors: Luwei Sun, Dongrui Shen, Jianfe Li, Yulong Zhao, Han Feng,
- Abstract要約: 本稿では, 条件付き生成モデルにおける課題に乗じて, このような比型汎関数を近似する理論的枠組みを開発する。
本稿では、SignReLUアクティベーション関数を持つディープニューラルネットワークを用いて、これらの比型関数を近似するための簡潔な証明を提案する。
- 参考スコア(独自算出の注目度): 3.6895681517492407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by challenges in conditional generative modeling, where the target conditional density takes the form of a ratio f1 over f2, this paper develops a theoretical framework for approximating such ratio-type functionals. Here, f1 and f2 are kernel-based marginal densities that capture structured interactions, a setting central to diffusion-based generative models. We provide a concise proof for approximating these ratio-type functionals using deep neural networks with the SignReLU activation function, leveraging the activation's piecewise structure. Under standard regularity assumptions, we establish L^p(Omega) approximation bounds and convergence rates. Specializing to Denoising Diffusion Probabilistic Models (DDPMs), we construct a SignReLU-based neural estimator for the reverse process and derive bounds on the excess Kullback-Leibler (KL) risk between the generated and true data distributions. Our analysis decomposes this excess risk into approximation and estimation error components. These results provide generalization guarantees for finite-sample training of diffusion-based generative models.
- Abstract(参考訳): 対象条件密度が f2 上の比 f1 の形を取る条件生成モデリングにおける課題に動機付けられ,そのような比型汎関数を近似するための理論的枠組みを開発する。
ここでは、f1とf2は、拡散に基づく生成モデルの中心となる構造的相互作用をキャプチャするカーネルベースの境界密度である。
本稿では、SignReLUアクティベーション機能を備えたディープニューラルネットワークを用いて、これらの比型関数を近似し、アクティベーションの断片的構造を活用するための簡潔な証明を提案する。
標準的な正則性仮定の下では、L^p(Omega)近似境界と収束率を確立する。
DDPM(Denoising Diffusion Probabilistic Models)に特化して、逆処理のためのSignReLUベースのニューラル推定器を構築し、生成したデータ分布と真データ分布の間の過剰なKullback-Leibler(KL)リスクを導出する。
この過大なリスクを近似と推定誤差成分に分解する。
これらの結果は拡散に基づく生成モデルの有限サンプルトレーニングの一般化を保証する。
関連論文リスト
- Non-asymptotic error bounds for probability flow ODEs under weak log-concavity [6.661419982187023]
この研究は、確率フローODEの一般クラスに対して、2-ワッサーシュタイン距離における非漸近収束境界を確立する。
この結果は収束理論を、より現実的なデータ分布と実用的なODEソルバに拡張する。
論文 参考訳(メタデータ) (2025-10-20T14:54:38Z) - Non-asymptotic convergence bound of conditional diffusion models [2.0410061496886454]
分類と回帰の領域内で条件付き拡散モデルを開発する。
事前訓練されたモデルf_phi(x)を元の拡散モデルフレームワークに統合する。
f_phi(x) が満足に実行されるとき、Y|fphi(x) は Y|X に近似する。
論文 参考訳(メタデータ) (2025-08-13T13:35:56Z) - Overcoming Dimensional Factorization Limits in Discrete Diffusion Models through Quantum Joint Distribution Learning [79.65014491424151]
量子離散化拡散確率モデル(QD3PM)を提案する。
これは、指数関数的に大きなヒルベルト空間における拡散と denoising を通じて合同確率学習を可能にする。
本稿では,共同分布学習における量子的優位性を生かして,生成モデルの新たな理論的パラダイムを確立する。
論文 参考訳(メタデータ) (2025-05-08T11:48:21Z) - Rectified Diffusion Guidance for Conditional Generation [94.83538269086613]
CFGの背後にある理論を再検討し、不適切な組合せ係数(textiti.e.)が生成分布を期待的にシフトさせることを厳密に確認する。
提案手法は, 強みを考慮すれば, textbftextitform ソリューションが有効であることを示す。
実世界のデータに関する実証的な証拠は、我々の設計と既存の最先端拡散モデルとの整合性を実証している。
論文 参考訳(メタデータ) (2024-10-24T13:41:32Z) - Analyzing Neural Network-Based Generative Diffusion Models through Convex Optimization [45.72323731094864]
本稿では,2層ニューラルネットワークを用いた拡散モデル解析のための理論的枠組みを提案する。
我々は,1つの凸プログラムを解くことで,スコア予測のための浅層ニューラルネットワークのトレーニングが可能であることを証明した。
本結果は, ニューラルネットワークに基づく拡散モデルが漸近的でない環境で何を学習するかを, 正確に評価するものである。
論文 参考訳(メタデータ) (2024-02-03T00:20:25Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。