論文の概要: Modular MeanFlow: Towards Stable and Scalable One-Step Generative Modeling
- arxiv url: http://arxiv.org/abs/2508.17426v1
- Date: Sun, 24 Aug 2025 16:00:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.517924
- Title: Modular MeanFlow: Towards Stable and Scalable One-Step Generative Modeling
- Title(参考訳): Modular MeanFlow: 安定的でスケーラブルなワンステップ生成モデリングを目指す
- Authors: Haochen You, Baojing Liu, Hongyang He,
- Abstract要約: 一段階生成モデリングは、単一関数評価において高品質なデータサンプルを生成することを目指している。
本研究では、時間平均速度場を学習するための柔軟で理論的に基礎付けられたアプローチであるModular MeanFlowを紹介する。
- 参考スコア(独自算出の注目度): 0.07646713951724012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One-step generative modeling seeks to generate high-quality data samples in a single function evaluation, significantly improving efficiency over traditional diffusion or flow-based models. In this work, we introduce Modular MeanFlow (MMF), a flexible and theoretically grounded approach for learning time-averaged velocity fields. Our method derives a family of loss functions based on a differential identity linking instantaneous and average velocities, and incorporates a gradient modulation mechanism that enables stable training without sacrificing expressiveness. We further propose a curriculum-style warmup schedule to smoothly transition from coarse supervision to fully differentiable training. The MMF formulation unifies and generalizes existing consistency-based and flow-matching methods, while avoiding expensive higher-order derivatives. Empirical results across image synthesis and trajectory modeling tasks demonstrate that MMF achieves competitive sample quality, robust convergence, and strong generalization, particularly under low-data or out-of-distribution settings.
- Abstract(参考訳): 一段階生成モデリングは、単一機能評価において高品質なデータサンプルを生成し、従来の拡散モデルやフローベースモデルよりも効率を著しく向上させようとする。
本研究では,時間平均速度場を学習するための柔軟で理論的に基礎付けられたアプローチであるMMF(Modular MeanFlow)を紹介する。
本手法は、瞬時および平均速度をリンクする差分IDに基づいて損失関数の族を導出し、表現性を犠牲にすることなく安定した訓練を可能にする勾配変調機構を組み込む。
さらに、粗い監督から完全に差別化可能なトレーニングへの移行を円滑に行うためのカリキュラムスタイルのウォームアップスケジュールを提案する。
MMFの定式化は、高価な高階微分を回避しつつ、既存の一貫性ベースのフローマッチング手法を統一、一般化する。
画像合成および軌道モデリングタスクにおける実験結果から、MMFは、特に低データまたはアウト・オブ・ディストリビューション設定下で、競争力のあるサンプル品質、堅牢な収束、強力な一般化を実現することが示された。
関連論文リスト
- Plug, Play, and Fortify: A Low-Cost Module for Robust Multimodal Image Understanding Models [6.350443894942629]
MWAM(Multimodal Weight Allocation Module)は、トレーニング中の各ブランチのコントリビューションを動的に再バランスするプラグイン・アンド・プレイコンポーネントである。
MWAMは幅広いタスクとモダリティの組み合わせで一貫したパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2026-02-26T05:51:41Z) - SMoFi: Step-wise Momentum Fusion for Split Federated Learning on Heterogeneous Data [11.41105795202393]
Split Federated Learningは、モデルのパーティションをトレーニングするために、中央サーバでリッチなコンピューティングリソースを使用する。
サイロ間のデータの異質性は、グローバルモデルの収束速度と精度を損なう大きな課題である。
本稿では,勾配の発散に対処する効果的で軽量なフレームワークであるSMoFiについて紹介する。
論文 参考訳(メタデータ) (2025-11-13T00:21:05Z) - SCORENF: Score-based Normalizing Flows for Sampling Unnormalized distributions [5.204468049641428]
正規化フローアーキテクチャ上に構築されたスコアベースの学習フレームワークであるScoreNFを提案する。
ScoreNFは訓練アンサンブルが小さい場合でも高い性能を維持していることを示す。
また,モード被覆とモード崩壊の挙動を評価する手法を提案する。
論文 参考訳(メタデータ) (2025-10-24T10:43:19Z) - A-FloPS: Accelerating Diffusion Sampling with Adaptive Flow Path Sampler [21.134678093577193]
A-FloPSは、フローベースの生成モデルのための原則化された、トレーニング不要のフレームワークである。
A-FloPSは, 試料品質と効率の両面において, 最先端のトレーニング不要サンプリング器より一貫して優れていることを示す。
5ドルの関数評価で、A-FloPSはFIDを大幅に低くし、よりシャープでコヒーレントな画像を生成する。
論文 参考訳(メタデータ) (2025-08-22T13:28:16Z) - Efficient Federated Learning with Timely Update Dissemination [54.668309196009204]
分散データ管理のための魅力的な方法論として、フェデレートラーニング(FL)が登場した。
そこで本稿では,ダウンリンクの帯域幅を削減し,タイムリーな更新を確実にするための効率的なFL手法を提案する。
論文 参考訳(メタデータ) (2025-07-08T14:34:32Z) - Improving Progressive Generation with Decomposable Flow Matching [50.63174319509629]
Decomposable Flow Matching (DFM)は、ビジュアルメディアのプログレッシブな生成のためのシンプルで効果的なフレームワークである。
Imagenet-1k 512pxでは、DFMはベースアーキテクチャよりも35.2%改善され、ベースラインは26.4%向上した。
論文 参考訳(メタデータ) (2025-06-24T17:58:02Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - Consistency Flow Matching: Defining Straight Flows with Velocity Consistency [97.28511135503176]
本稿では,速度場の自己整合性を明示する新しいFM法であるConsistency Flow Matching(Consistency-FM)を紹介する。
予備実験により、一貫性FMは、一貫性モデルよりも4.4倍速く収束することにより、トレーニング効率を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-07-02T16:15:37Z) - Flow map matching with stochastic interpolants: A mathematical framework for consistency models [15.520853806024943]
フローマップマッチングは、基礎となる生成モデルの2時間フローマップを学ぶための原則化されたフレームワークである。
FMMは,高速サンプリングのための既存手法の幅広いクラスを統一し,拡張することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:41:26Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。