論文の概要: DiffFlow: A Unified SDE Framework for Score-Based Diffusion Models and
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2307.02159v1
- Date: Wed, 5 Jul 2023 10:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 14:14:38.386250
- Title: DiffFlow: A Unified SDE Framework for Score-Based Diffusion Models and
Generative Adversarial Networks
- Title(参考訳): DiffFlow: Score-based Diffusion ModelsとGenerative Adversarial Networksのための統一SDEフレームワーク
- Authors: Jingwei Zhang, Han Shi, Jincheng Yu, Enze Xie, and Zhenguo Li
- Abstract要約: 我々は、明示的生成モデル(SDM)と生成逆数ネット(GAN)のための統一的理論フレームワークを提案する。
統合理論フレームワークでは,GAN や SDM 以外の新しいアルゴリズムを精度の高い推定で提供する DiffFLow のインスタンス化がいくつか導入されている。
- 参考スコア(独自算出の注目度): 41.451880167535776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models can be categorized into two types: explicit generative
models that define explicit density forms and allow exact likelihood inference,
such as score-based diffusion models (SDMs) and normalizing flows; implicit
generative models that directly learn a transformation from the prior to the
data distribution, such as generative adversarial nets (GANs). While these two
types of models have shown great success, they suffer from respective
limitations that hinder them from achieving fast sampling and high sample
quality simultaneously. In this paper, we propose a unified theoretic framework
for SDMs and GANs. We shown that: i) the learning dynamics of both SDMs and
GANs can be described as a novel SDE named Discriminator Denoising Diffusion
Flow (DiffFlow) where the drift can be determined by some weighted combinations
of scores of the real data and the generated data; ii) By adjusting the
relative weights between different score terms, we can obtain a smooth
transition between SDMs and GANs while the marginal distribution of the SDE
remains invariant to the change of the weights; iii) we prove the asymptotic
optimality and maximal likelihood training scheme of the DiffFlow dynamics; iv)
under our unified theoretic framework, we introduce several instantiations of
the DiffFLow that provide new algorithms beyond GANs and SDMs with exact
likelihood inference and have potential to achieve flexible trade-off between
high sample quality and fast sampling speed.
- Abstract(参考訳): 生成モデルは2つのタイプに分類される: 明示的な密度形式を定義し、スコアベース拡散モデル(SDM)や正規化フローのような正確な確率推論を可能にする明示的な生成モデル、生成的敵ネット(GAN)のようなデータ分布以前の変換を直接学習する暗黙的な生成モデル。
これらの2種類のモデルは非常に成功したが、速いサンプリングと高いサンプル品質を同時に達成することを妨げるそれぞれの制限に悩まされている。
本稿では,SDM と GAN の統一理論フレームワークを提案する。
私たちはそれを示しました
i)sdmとgansの学習ダイナミクスは,実データのスコアと生成データの重み付けの組み合わせによってドリフトを決定することができる拡散フロー(拡散)を識別する新しいsdeとして記述することができる。
二 異なるスコア項間の相対重みの調整により、SDMとGANのスムーズな遷移を得ることができ、一方、SDEの限界分布は、重みの変化に不変である。
三 ディフフロー力学の漸近最適性及び最大可能性訓練スキームを証明すること。
iv) 統合理論の枠組みの下では, GAN と SDM 以外の新しいアルゴリズムを精度の高い推定で提供し,高品質と高速サンプリング速度の柔軟なトレードオフを実現することができるDiffFLow のいくつかのインスタンス化を導入する。
関連論文リスト
- On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Neural Diffusion Models [2.1779479916071067]
本稿では,データの時間依存非線形変換の定義と学習を可能にする,従来の拡散モデルの一般化について述べる。
NDMは、可能性の観点から従来の拡散モデルより優れ、高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2023-10-12T13:54:55Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - The Score-Difference Flow for Implicit Generative Modeling [1.309716118537215]
Inlicit Generative Modelingは、対象データ分布と一致する合成データのサンプルを作成することを目的としている。
最近の研究は、合成音源データをターゲット分布へプッシュする観点から、IGG問題にアプローチしている。
任意のターゲット分布とソース分布のスコア差を,Kulback-Leibler分散を最適に低減するフローとして提示する。
論文 参考訳(メタデータ) (2023-04-25T15:21:12Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Fast Inference in Denoising Diffusion Models via MMD Finetuning [23.779985842891705]
拡散モデルの高速サンプリング法であるMDD-DDMを提案する。
我々のアプローチは、学習した分布を所定の予算のタイムステップで微調整するために、最大平均離散性(MMD)を使用するという考え方に基づいている。
提案手法は,広範に普及した拡散モデルで要求されるわずかな時間で高品質なサンプルを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-19T09:48:07Z) - Modiff: Action-Conditioned 3D Motion Generation with Denoising Diffusion
Probabilistic Models [58.357180353368896]
本稿では,現実的で多様な3D骨格に基づく運動生成問題に対処するために,拡散確率モデル(DDPM)の利点を生かした条件付きパラダイムを提案する。
我々はDDPMを用いてカテゴリ的動作で条件付けられた動作列の可変数を合成する先駆的な試みである。
論文 参考訳(メタデータ) (2023-01-10T13:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。