論文の概要: From Diffusion to One-Step Generation: A Comparative Study of Flow-Based Models with Application to Image Inpainting
- arxiv url: http://arxiv.org/abs/2511.21215v1
- Date: Wed, 26 Nov 2025 09:44:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.0425
- Title: From Diffusion to One-Step Generation: A Comparative Study of Flow-Based Models with Application to Image Inpainting
- Title(参考訳): 拡散からワンステップ生成へ:フローベースモデルと画像塗布への応用の比較研究
- Authors: Umang Agarwal, Rudraksh Sangore, Sumit Laddha,
- Abstract要約: 拡散確率モデル(DDPM)、条件付きフローマッチング(CFM)、平均フローについて検討した。
CFMは50段のFIDを24.15で達成し、DDPM(FID 402.98)を著しく上回っている
MeanFlowはシングルステップサンプリングでFID 29.15を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a comprehensive comparative study of three generative modeling paradigms: Denoising Diffusion Probabilistic Models (DDPM), Conditional Flow Matching (CFM), and MeanFlow. While DDPM and CFM require iterative sampling, MeanFlow enables direct one-step generation by modeling the average velocity over time intervals. We implement all three methods using a unified TinyUNet architecture (<1.5M parameters) on CIFAR-10, demonstrating that CFM achieves an FID of 24.15 with 50 steps, significantly outperforming DDPM (FID 402.98). MeanFlow achieves FID 29.15 with single-step sampling -- a 50X reduction in inference time. We further extend CFM to image inpainting, implementing mask-guided sampling with four mask types (center, random bbox, irregular, half). Our fine-tuned inpainting model achieves substantial improvements: PSNR increases from 4.95 to 8.57 dB on center masks (+73%), and SSIM improves from 0.289 to 0.418 (+45%), demonstrating the effectiveness of inpainting-aware training.
- Abstract(参考訳): 本稿では,拡散確率モデル(DDPM),条件付きフローマッチング(CFM),平均流(MeanFlow)の3つの生成モデルパラダイムを総合的に比較検討する。
DDPMとCFMは反復サンプリングを必要とするが、MeanFlowは時間間隔の平均速度をモデル化して直接ワンステップ生成を可能にする。
CIFAR-10上に統合されたTinyUNetアーキテクチャ(1.5Mパラメータ)を用いて3つの手法をすべて実装し、CFMがFIDを24.15で50ステップで達成し、DDPM(FID 402.98)を著しく上回ったことを示す。
MeanFlowはシングルステップサンプリングでFID 29.15を達成する。
我々はさらにCFMをイメージインペイントに拡張し、4種類のマスクタイプ(中央、ランダムボックス、不規則、半分)でマスク誘導サンプリングを実装した。
PSNRはセンターマスクの4.95から8.57dB(+73%)に増加し、SSIMは0.289から0.418(+45%)に改善され、塗装注意訓練の有効性が示された。
関連論文リスト
- Decoupled MeanFlow: Turning Flow Models into Flow Maps for Accelerated Sampling [68.76215229126886]
Decoupled MeanFlowは、フローモデルをアーキテクチャ変更なしにフローマップモデルに変換するシンプルなデコード戦略である。
提案手法では, 拡散変圧器の最終ブロックを後続の時間ステップに設定し, 事前学習した流れモデルを直接フローマップとして再利用する。
ImageNet 256x256 と 512x512 では、われわれのモデルはそれぞれ2.16 と2.12 の1ステップ FID に達し、先行技術よりも大きなマージンで上回っている。
論文 参考訳(メタデータ) (2025-10-28T14:43:48Z) - Improving Progressive Generation with Decomposable Flow Matching [50.63174319509629]
Decomposable Flow Matching (DFM)は、ビジュアルメディアのプログレッシブな生成のためのシンプルで効果的なフレームワークである。
Imagenet-1k 512pxでは、DFMはベースアーキテクチャよりも35.2%改善され、ベースラインは26.4%向上した。
論文 参考訳(メタデータ) (2025-06-24T17:58:02Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - Constant Rate Scheduling: Constant-Rate Distributional Change for Efficient Training and Sampling in Diffusion Models [16.863038973001483]
拡散モデルにおける学習とサンプリングのためのノイズスケジュールを最適化する一般的な手法を提案する。
非条件およびクラス条件の画像生成タスクに対するアプローチの有効性を評価する。
トレーニングとサンプリングのスケジュールを最適化するために,本手法を用いることで,最先端のFIDスコア2.03を達成できた。
論文 参考訳(メタデータ) (2024-11-19T03:02:39Z) - FlowTurbo: Towards Real-time Flow-Based Image Generation with Velocity Refiner [70.90505084288057]
フローベースモデルはサンプリングプロセス中により直線的なサンプリング軌道を生成する傾向にある。
擬似修正器やサンプル認識コンパイルなどいくつかの手法を導入し,推論時間をさらに短縮する。
FlowTurboはImageNet上で100(ms/img)で2.12FID、38(ms/img)で3.93FIDに達する
論文 参考訳(メタデータ) (2024-09-26T17:59:51Z) - Learning to Discretize Denoising Diffusion ODEs [41.50816120270017]
拡散確率モデル(英: Diffusion Probabilistic Models, DPM)は、様々な領域における競争性能を示す生成モデルである。
本稿では,サンプリングのための最適な時間離散化学習を目的とした軽量フレームワークLD3を提案する。
我々はLD3がサンプリング効率をはるかに低い計算オーバーヘッドで改善できることを解析的かつ実証的に実証した。
論文 参考訳(メタデータ) (2024-05-24T12:51:23Z) - DPM-Solver-v3: Improved Diffusion ODE Solver with Empirical Model
Statistics [23.030972042695275]
拡散モデル(DPM)は、非効率サンプリングに悩まされながら、高忠実度画像生成に優れた性能を示した。
最近の研究は、DPMの特定のODE形式を利用する高速ODEソルバを提案することでサンプリング手順を加速している。
本稿では,1次離散化誤差を最小限に抑えるため,サンプリング中の最適パラメータ化に向けた新しい定式化を提案する。
論文 参考訳(メタデータ) (2023-10-20T04:23:12Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。