論文の概要: Unraveling the Connections between Flow Matching and Diffusion Probabilistic Models in Training-free Conditional Generation
- arxiv url: http://arxiv.org/abs/2411.07625v1
- Date: Tue, 12 Nov 2024 08:14:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:21:20.776613
- Title: Unraveling the Connections between Flow Matching and Diffusion Probabilistic Models in Training-free Conditional Generation
- Title(参考訳): 学習自由条件生成におけるフローマッチングと拡散確率モデルとのつながりの解明
- Authors: Kaiyu Song, Hanjiang Lai,
- Abstract要約: 流れマッチング(FM)と拡散確率モデル(DPM)は2つの成熟した非条件拡散モデルである。
確率的拡散経路はFMとDPMに関連付けられることを示す。
本研究では,条件項を推定し,FMの訓練不要条件生成を実現するための2つの後方サンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 7.3604864243987365
- License:
- Abstract: Training-free conditional generation aims to leverage the unconditional diffusion models to implement the conditional generation, where flow-matching (FM) and diffusion probabilistic models (DPMs) are two mature unconditional diffusion models that achieve high-quality generation. Two questions were asked in this paper: What are the underlying connections between FM and DPMs in training-free conditional generation? Can we leverage DPMs to improve the training-free conditional generation for FM? We first show that a probabilistic diffusion path can be associated with the FM and DPMs. Then, we reformulate the ordinary differential equation (ODE) of FM based on the score function of DPMs, and thus, the conditions in FM can be incorporated as those in DPMs. Finally, we propose two posterior sampling methods to estimate the conditional term and achieve a training-free conditional generation of FM. Experimental results show that our proposed method could be implemented for various conditional generation tasks. Our method can generate higher-quality results than the state-of-the-art methods.
- Abstract(参考訳): 学習自由条件付き生成は、非条件拡散モデルを活用して条件生成を実現することを目的としており、フローマッチング(FM)と拡散確率モデル(DPM)は、高品質な生成を実現する2つの成熟した非条件拡散モデルである。
FMとDPMの訓練不要条件生成における関係はどのようなものか?
DPMを利用してFMの訓練不要条件生成を改善できるか?
まず、確率的拡散経路がFMやDPMと結びつくことを示す。
そして、DPMのスコア関数に基づいてFMの常微分方程式(ODE)を再構成することにより、FMの条件をDPMに組み込むことができる。
最後に,条件項を推定し,FMの訓練不要条件生成を実現するための2つの後方サンプリング手法を提案する。
実験結果から,提案手法は各種条件生成タスクに適用可能であることが示された。
我々の手法は最先端の手法よりも高品質な結果が得られる。
関連論文リスト
- Local Flow Matching Generative Models [19.859984725284896]
フローマッチング(英: Flow Matching, FM)は、2つの分布を補間する連続的かつ非可逆的な流れを学習するためのシミュレーション不要な手法である。
FMサブモデルのシーケンスを学習し,それぞれがデータ-雑音方向のステップサイズまで拡散過程と一致するローカルフローマッチング(LFM)を導入する。
実験では, FMと比較して, LFMの訓練効率と競争的生成性能の改善を実証した。
論文 参考訳(メタデータ) (2024-10-03T14:53:10Z) - Your Absorbing Discrete Diffusion Secretly Models the Conditional Distributions of Clean Data [55.54827581105283]
本研究では, 吸収拡散の具体的なスコアを, クリーンデータの条件付き確率として表すことができることを示す。
時間に依存しない条件付き確率を特徴付ける時間条件のない専用拡散モデルを提案する。
5つのゼロショット言語モデルベンチマークにおける拡散モデル間のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T04:22:11Z) - Flow matching achieves almost minimax optimal convergence [50.38891696297888]
フローマッチング (FM) は, シミュレーションのない生成モデルとして注目されている。
本稿では,大試料径のFMの収束特性を$p$-Wasserstein 距離で論じる。
我々は、FMが1leq p leq 2$でほぼ最小の収束率を達成できることを確立し、FMが拡散モデルに匹敵する収束率に達するという最初の理論的証拠を示す。
論文 参考訳(メタデータ) (2024-05-31T14:54:51Z) - Deep MMD Gradient Flow without adversarial training [69.76417786943217]
本稿では,初期音源分布からターゲット分布への粒子輸送による生成モデルのための勾配流法を提案する。
最大平均離散度(MMD)の雑音適応型ワッサースタイン勾配は、ノイズのレベルの増加によって劣化するデータ分布について訓練する。
我々は,MDDがKL分岐の下位境界に置き換わる場合のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-05-10T19:10:45Z) - Extended Flow Matching: a Method of Conditional Generation with Generalized Continuity Equation [19.71452214879951]
条件生成は 生成モデルの最も重要な応用の1つです
行列場を通して条件生成に帰納バイアスを導入することができることを示す。
条件生成におけるEMFの競争性を支持する実験結果とともに,本理論を提示する。
論文 参考訳(メタデータ) (2024-02-29T04:12:32Z) - DiffFlow: A Unified SDE Framework for Score-Based Diffusion Models and
Generative Adversarial Networks [41.451880167535776]
我々は、明示的生成モデル(SDM)と生成逆数ネット(GAN)のための統一的理論フレームワークを提案する。
統合理論フレームワークでは,GAN や SDM 以外の新しいアルゴリズムを精度の高い推定で提供する DiffFLow のインスタンス化がいくつか導入されている。
論文 参考訳(メタデータ) (2023-07-05T10:00:53Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion
Trajectories [144.03939123870416]
本稿では,前処理に条件を導入することで,新しい条件拡散モデルを提案する。
いくつかのシフト規則に基づいて各条件に対して排他的拡散軌跡を割り当てるために、余剰潜在空間を用いる。
我々は textbfShiftDDPMs と呼ぶメソッドを定式化し、既存のメソッドの統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-02-05T12:48:21Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。