論文の概要: Modular MeanFlow: Towards Stable and Scalable One-Step Generative Modeling
- arxiv url: http://arxiv.org/abs/2508.17426v1
- Date: Sun, 24 Aug 2025 16:00:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.517924
- Title: Modular MeanFlow: Towards Stable and Scalable One-Step Generative Modeling
- Title(参考訳): Modular MeanFlow: 安定的でスケーラブルなワンステップ生成モデリングを目指す
- Authors: Haochen You, Baojing Liu, Hongyang He,
- Abstract要約: 一段階生成モデリングは、単一関数評価において高品質なデータサンプルを生成することを目指している。
本研究では、時間平均速度場を学習するための柔軟で理論的に基礎付けられたアプローチであるModular MeanFlowを紹介する。
- 参考スコア(独自算出の注目度): 0.07646713951724012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One-step generative modeling seeks to generate high-quality data samples in a single function evaluation, significantly improving efficiency over traditional diffusion or flow-based models. In this work, we introduce Modular MeanFlow (MMF), a flexible and theoretically grounded approach for learning time-averaged velocity fields. Our method derives a family of loss functions based on a differential identity linking instantaneous and average velocities, and incorporates a gradient modulation mechanism that enables stable training without sacrificing expressiveness. We further propose a curriculum-style warmup schedule to smoothly transition from coarse supervision to fully differentiable training. The MMF formulation unifies and generalizes existing consistency-based and flow-matching methods, while avoiding expensive higher-order derivatives. Empirical results across image synthesis and trajectory modeling tasks demonstrate that MMF achieves competitive sample quality, robust convergence, and strong generalization, particularly under low-data or out-of-distribution settings.
- Abstract(参考訳): 一段階生成モデリングは、単一機能評価において高品質なデータサンプルを生成し、従来の拡散モデルやフローベースモデルよりも効率を著しく向上させようとする。
本研究では,時間平均速度場を学習するための柔軟で理論的に基礎付けられたアプローチであるMMF(Modular MeanFlow)を紹介する。
本手法は、瞬時および平均速度をリンクする差分IDに基づいて損失関数の族を導出し、表現性を犠牲にすることなく安定した訓練を可能にする勾配変調機構を組み込む。
さらに、粗い監督から完全に差別化可能なトレーニングへの移行を円滑に行うためのカリキュラムスタイルのウォームアップスケジュールを提案する。
MMFの定式化は、高価な高階微分を回避しつつ、既存の一貫性ベースのフローマッチング手法を統一、一般化する。
画像合成および軌道モデリングタスクにおける実験結果から、MMFは、特に低データまたはアウト・オブ・ディストリビューション設定下で、競争力のあるサンプル品質、堅牢な収束、強力な一般化を実現することが示された。
関連論文リスト
- Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - Flow map matching with stochastic interpolants: A mathematical framework for consistency models [15.520853806024943]
フローマップマッチングは、基礎となる生成モデルの2時間フローマップを学ぶための原則化されたフレームワークである。
FMMは,高速サンプリングのための既存手法の幅広いクラスを統一し,拡張することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:41:26Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。