論文の概要: Interpretable ODE-style Generative Diffusion Model via Force Field
Construction
- arxiv url: http://arxiv.org/abs/2303.08063v2
- Date: Wed, 15 Mar 2023 15:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 10:26:14.298961
- Title: Interpretable ODE-style Generative Diffusion Model via Force Field
Construction
- Title(参考訳): 力場構築によるODEスタイル生成拡散モデルの解釈
- Authors: Weiyang Jin and Yongpei Zhu and Yuxi Peng
- Abstract要約: 本稿では,数理的な観点からODE型生成拡散モデルを構築するのに適した様々な物理モデルを特定することを目的とする。
我々は,本手法で同定された理論モデルを用いて,新しい拡散モデル手法の開発を行うケーススタディを行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a considerable time, researchers have focused on developing a method that
establishes a deep connection between the generative diffusion model and
mathematical physics. Despite previous efforts, progress has been limited to
the pursuit of a single specialized method. In order to advance the
interpretability of diffusion models and explore new research directions, it is
essential to establish a unified ODE-style generative diffusion model. Such a
model should draw inspiration from physical models and possess a clear
geometric meaning. This paper aims to identify various physical models that are
suitable for constructing ODE-style generative diffusion models accurately from
a mathematical perspective. We then summarize these models into a unified
method. Additionally, we perform a case study where we use the theoretical
model identified by our method to develop a range of new diffusion model
methods, and conduct experiments. Our experiments on CIFAR-10 demonstrate the
effectiveness of our approach. We have constructed a computational framework
that attains highly proficient results with regards to image generation speed,
alongside an additional model that demonstrates exceptional performance in both
Inception score and FID score. These results underscore the significance of our
method in advancing the field of diffusion models.
- Abstract(参考訳): しばらくの間、研究者は生成拡散モデルと数理物理学の深い関係を確立する方法の開発に注力してきた。
これまでの努力にもかかわらず、進歩は単一の専門的な方法の追求に限定されてきた。
拡散モデルの解釈可能性を高め, 新たな研究方向を探るためには, 統一ode型生成拡散モデルを確立することが不可欠である。
このようなモデルは物理モデルからインスピレーションを得て、明確な幾何学的意味を持つべきである。
本稿では, 数学的観点から, ode型生成拡散モデルの構築に適した様々な物理モデルを特定することを目的とする。
そして、これらのモデルを統一した手法にまとめる。
さらに,本手法によって同定された理論モデルを用いて,新しい拡散モデル手法を開発し,実験を行うケーススタディを実施している。
CIFAR-10の実験は、我々のアプローチの有効性を実証した。
画像生成速度に関して非常に熟練した結果を得る計算フレームワークを構築し,インセプションスコアとfidスコアの両方において優れた性能を示す追加モデルを構築した。
これらの結果は拡散モデルの発展における本手法の意義を浮き彫りにするものである。
関連論文リスト
- Reduce, Reuse, Recycle: Compositional Generation with Energy-Based
Diffusion Models and MCMC [90.44691478696522]
拡散モデルは、多くの領域において、生成モデリングの一般的なアプローチとなっている。
本稿では,新しい構成演算子の利用を可能にする拡散モデルのエネルギーベースパラメータ化を提案する。
これらのサンプルは、幅広い問題にまたがって構成生成の顕著な改善につながっている。
論文 参考訳(メタデータ) (2023-02-22T18:48:46Z) - A Reparameterized Discrete Diffusion Model for Text Generation [15.820261667728458]
本研究は, 離散拡散確率モデルと自然言語生成への応用に関する研究である。
離散拡散過程からサンプリングの代替的かつ等価な定式化を導出する。
本研究では,既存の拡散モデルに対して,テキスト生成能力を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-02-11T16:26:57Z) - DAG: Depth-Aware Guidance with Denoising Diffusion Probabilistic Models [23.70476220346754]
拡散モデルの豊かな中間表現から得られた推定深度情報を利用する拡散モデルのための新しいガイダンス手法を提案する。
実験と広範囲にわたるアブレーション研究により,幾何学的に妥当な画像生成に向けた拡散モデルの導出における本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-17T12:47:19Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - On Distillation of Guided Diffusion Models [94.25159023822297]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
ImageNet 64x64 と CIFAR-10 では、4つのサンプリングステップで元のモデルに匹敵する画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - A Survey on Generative Diffusion Model [75.51029309815213]
拡散モデルには、遅い生成過程の自然な欠点があり、多くの強化された研究につながっている。
本稿では,学習スケジュール,トレーニング不要サンプリング,混合モデリング,スコア・アンド・拡散統一といった,拡散モデルを高速化する高度な手法を提案する。
拡散モデルを持つアプリケーションは、コンピュータビジョン、シーケンスモデリング、オーディオ、科学のためのAIを含む。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Diffusion Models: A Comprehensive Survey of Methods and Applications [10.557289965753437]
拡散モデル(英: Diffusion model)は、密度理論の確立を伴う様々なタスクにおいて印象的な結果を示す深層生成モデルのクラスである。
近年,拡散モデルの性能向上への熱意が高まっている。
論文 参考訳(メタデータ) (2022-09-02T02:59:10Z) - Let us Build Bridges: Understanding and Extending Diffusion Generative
Models [19.517597928769042]
拡散に基づく生成モデルは、最近、有望な結果を得たが、多くのオープンな疑問を提起している。
この研究は、理論的な理解を深めるために、全体的なフレームワークを再検討しようと試みている。
1)拡散生成モデルを学習するための最初の理論的誤り解析,2)異なる離散および制約された領域からのデータを学ぶための単純で統一的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-31T08:58:10Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。