論文の概要: Forward-only Diffusion Probabilistic Models
- arxiv url: http://arxiv.org/abs/2505.16733v1
- Date: Thu, 22 May 2025 14:47:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.362588
- Title: Forward-only Diffusion Probabilistic Models
- Title(参考訳): 前向きのみ拡散確率モデル
- Authors: Ziwei Luo, Fredrik K. Gustafsson, Jens Sjölund, Thomas B. Schön,
- Abstract要約: この研究は、生成モデリングのためのフォワードオンリー拡散(FoD)アプローチを示す。
FoDは単一の前方拡散プロセスを通じてデータ生成を直接学習する。
FoDは解析的に抽出可能であり、単純なフローマッチングの目的を用いて訓練される。
- 参考スコア(独自算出の注目度): 14.538117998129307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a forward-only diffusion (FoD) approach for generative modelling. In contrast to traditional diffusion models that rely on a coupled forward-backward diffusion scheme, FoD directly learns data generation through a single forward diffusion process, yielding a simple yet efficient generative framework. The core of FoD is a state-dependent linear stochastic differential equation that involves a mean-reverting term in both the drift and diffusion functions. This mean-reversion property guarantees the convergence to clean data, naturally simulating a stochastic interpolation between source and target distributions. More importantly, FoD is analytically tractable and is trained using a simple stochastic flow matching objective, enabling a few-step non-Markov chain sampling during inference. The proposed FoD model, despite its simplicity, achieves competitive performance on various image-conditioned (e.g., image restoration) and unconditional generation tasks, demonstrating its effectiveness in generative modelling. Our code is available at https://github.com/Algolzw/FoD.
- Abstract(参考訳): この研究は、生成モデリングのためのフォワードオンリー拡散(FoD)アプローチを示す。
結合した前方拡散スキームに依存する従来の拡散モデルとは対照的に、FoDは単一の前方拡散過程を通じてデータ生成を直接学習し、単純で効率的な生成フレームワークを生成する。
FoDの中核は状態依存線形確率微分方程式であり、ドリフト関数と拡散関数の両方において平均回帰項を含む。
この平均回帰特性は、ソースとターゲットの分布の間の確率的補間を自然にシミュレートし、クリーンデータへの収束を保証する。
さらに重要なことは、FoDは解析的に抽出可能であり、単純な確率的フローマッチングの目的を用いて訓練され、推論中に数ステップの非マルコフ連鎖サンプリングを可能にすることである。
提案したFoDモデルは、単純さにもかかわらず、様々な画像条件(例えば、画像復元)および非条件生成タスクにおける競合性能を達成し、生成モデリングにおけるその効果を実証する。
私たちのコードはhttps://github.com/Algolzw/FoD.comで公開されています。
関連論文リスト
- Continuous Diffusion Model for Language Modeling [57.396578974401734]
離散データに対する既存の連続拡散モデルは、離散的アプローチと比較して性能が限られている。
本稿では,下層の分類分布の幾何学を組み込んだ言語モデリングのための連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-17T08:54:29Z) - RDPM: Solve Diffusion Probabilistic Models via Recurrent Token Prediction [17.005198258689035]
拡散確率モデル(DPM)は、高忠実度画像合成のデファクトアプローチとして登場した。
本稿では, 再帰的拡散確率モデル(RDPM, Recurrent Diffusion Probabilistic Model)を提案する。
論文 参考訳(メタデータ) (2024-12-24T12:28:19Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - Bayesian Flow Networks [4.197165999892042]
本稿では,ベイジアン・フロー・ネットワーク(BFN)について述べる。ベイジアン・フロー・ネットワーク(BFN)は,独立分布の集合のパラメータをベイジアン推論で修正した新しい生成モデルである。
単純な事前および反復的な2つの分布の更新から始めると、拡散モデルの逆過程に似た生成手順が得られる。
BFNは動的にバイナライズされたMNISTとCIFAR-10で画像モデリングを行うために競合するログライクフレーションを実現し、text8文字レベルの言語モデリングタスクにおいて既知のすべての離散拡散モデルより優れている。
論文 参考訳(メタデータ) (2023-08-14T09:56:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。