論文の概要: Structured Diffusion Models with Mixture of Gaussians as Prior Distribution
- arxiv url: http://arxiv.org/abs/2410.19149v1
- Date: Thu, 24 Oct 2024 20:34:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:37:50.233172
- Title: Structured Diffusion Models with Mixture of Gaussians as Prior Distribution
- Title(参考訳): ガウスの混合を先行分布とする構造拡散モデル
- Authors: Nanshan Jia, Tingyu Zhu, Haoyu Liu, Zeyu Zheng,
- Abstract要約: 本研究では,従来の混合ガウス語の使用を円滑に適応する簡易な実践訓練手法を開発した。
提案手法は誤特定に対して堅牢であることが示され,特にトレーニングリソースの制限や,リアルタイムの迅速なトレーニングが望まれる状況に適している。
- 参考スコア(独自算出の注目度): 13.052085651071135
- License:
- Abstract: We propose a class of structured diffusion models, in which the prior distribution is chosen as a mixture of Gaussians, rather than a standard Gaussian distribution. The specific mixed Gaussian distribution, as prior, can be chosen to incorporate certain structured information of the data. We develop a simple-to-implement training procedure that smoothly accommodates the use of mixed Gaussian as prior. Theory is provided to quantify the benefits of our proposed models, compared to the classical diffusion models. Numerical experiments with synthetic, image and operational data are conducted to show comparative advantages of our model. Our method is shown to be robust to mis-specifications and in particular suits situations where training resources are limited or faster training in real time is desired.
- Abstract(参考訳): 本稿では,従来の分布を標準ガウス分布ではなくガウス分布の混合として選択する構造拡散モデルのクラスを提案する。
前述のように、特定の混合ガウス分布は、データの特定の構造化情報を組み込むために選択することができる。
本研究では,従来の混合ガウス語の使用を円滑に適応する簡易な実践訓練手法を開発した。
提案したモデルの利点を古典的拡散モデルと比較して定量化するために理論が提供される。
合成,画像,操作データを用いた数値実験を行い,本モデルの利点を比較検討した。
提案手法は誤特定に対して堅牢であることが示され,特にトレーニングリソースの制限や,リアルタイムの迅速なトレーニングが望まれる状況に適している。
関連論文リスト
- Heavy-Tailed Diffusion Models [38.713884992630675]
従来の拡散・流れマッチングモデルでは, 重み付き挙動を捉えることができないことを示す。
ヘビーテール推定のための拡散フレームワークを再利用することで、この問題に対処する。
既存の拡散・流動モデルの拡張である t-EDM と t-Flow を導入する。
論文 参考訳(メタデータ) (2024-10-18T04:29:46Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
我々は,要求に応じて所望の分布に基づいて制約付き拡散モデルを開発する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Unveil Conditional Diffusion Models with Classifier-free Guidance: A Sharp Statistical Theory [87.00653989457834]
条件付き拡散モデルは現代の画像合成の基礎となり、計算生物学や強化学習などの分野に広く応用されている。
経験的成功にもかかわらず、条件拡散モデルの理論はほとんど欠落している。
本稿では,条件拡散モデルを用いた分布推定の急激な統計的理論を提示することにより,ギャップを埋める。
論文 参考訳(メタデータ) (2024-03-18T17:08:24Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Renormalizing Diffusion Models [0.7252027234425334]
拡散モデルを用いて、統計および量子場理論の逆再正規化群フローを学習する。
我々の研究は、多スケール拡散モデルの解釈を提供し、新しい性質を持つべき拡散モデルに対する物理的に着想を得た提案を与える。
論文 参考訳(メタデータ) (2023-08-23T18:02:31Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z) - Finite mixture of skewed sub-Gaussian stable distributions [0.0]
提案モデルは正規分布とスキュー分布の有限混合を含む。
堅牢なモデルベースのクラスタリングのための強力なモデルとして使用できる。
論文 参考訳(メタデータ) (2022-05-27T15:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。