論文の概要: AlphaFlow: Understanding and Improving MeanFlow Models
- arxiv url: http://arxiv.org/abs/2510.20771v1
- Date: Thu, 23 Oct 2025 17:45:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.51798
- Title: AlphaFlow: Understanding and Improving MeanFlow Models
- Title(参考訳): AlphaFlow: MeanFlowモデルの理解と改善
- Authors: Huijie Zhang, Aliaksandr Siarohin, Willi Menapace, Michael Vasilkovsky, Sergey Tulyakov, Qing Qu, Ivan Skorokhodov,
- Abstract要約: その結果,MeanFlowの目的は,トラジェクティブフローマッチングとトラジェクトリ一貫性という2つの部分に分けられることがわかった。
これらの知見に触発されて、軌跡フローマッチング、ショートカットモデル、MeanFlowを統一する目的の広いファミリーである$alpha$-Flowを紹介した。
クラス条件のImageNet-1K 256x256をバニラのDiTバックボーンでスクラッチからトレーニングすると、$alpha$-Flowはスケールと設定でMeanFlowを一貫して上回る。
- 参考スコア(独自算出の注目度): 74.64465762009475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: MeanFlow has recently emerged as a powerful framework for few-step generative modeling trained from scratch, but its success is not yet fully understood. In this work, we show that the MeanFlow objective naturally decomposes into two parts: trajectory flow matching and trajectory consistency. Through gradient analysis, we find that these terms are strongly negatively correlated, causing optimization conflict and slow convergence. Motivated by these insights, we introduce $\alpha$-Flow, a broad family of objectives that unifies trajectory flow matching, Shortcut Model, and MeanFlow under one formulation. By adopting a curriculum strategy that smoothly anneals from trajectory flow matching to MeanFlow, $\alpha$-Flow disentangles the conflicting objectives, and achieves better convergence. When trained from scratch on class-conditional ImageNet-1K 256x256 with vanilla DiT backbones, $\alpha$-Flow consistently outperforms MeanFlow across scales and settings. Our largest $\alpha$-Flow-XL/2+ model achieves new state-of-the-art results using vanilla DiT backbones, with FID scores of 2.58 (1-NFE) and 2.15 (2-NFE).
- Abstract(参考訳): MeanFlowは最近、スクラッチからトレーニングされた数ステップの生成モデリングのための強力なフレームワークとして登場したが、その成功はまだ完全には理解されていない。
本研究では,MeanFlowの目的をトラジェクティブフローマッチングとトラジェクトリ一貫性という2つの部分に自然に分解することを示す。
勾配解析により、これらの項は負の相関関係が強く、最適化の矛盾と収束が遅いことが分かる。
これらの知見に触発されて,1つの定式化の下で軌跡フローマッチング,ショートカットモデル,メアンフローを統一する目的の広いファミリーである$\alpha$-Flowを紹介した。
MeanFlowと一致する軌道フローから順応するカリキュラム戦略を採用することで、$\alpha$-Flowは競合する目標を混乱させ、より良い収束を達成する。
クラス条件の ImageNet-1K 256x256 をバニラ DiT バックボーンでスクラッチからトレーニングすると、$\alpha$-Flow はスケールと設定でMeanFlow を一貫して上回る。
我々の最大の$\alpha$-Flow-XL/2+モデルは、2.58 (1-NFE)と2.15 (2-NFE)のFIDスコアを持つバニラDiTバックボーンを用いて、最先端の新たな結果を得る。
関連論文リスト
- OneFlow: Concurrent Mixed-Modal and Interleaved Generation with Edit Flows [59.052955667723985]
可変長および同時混合モード生成が可能な最初の非自己回帰型マルチモーダルモデルであるOneFlowを提案する。
テキストと画像生成の間の厳格な因果順序を強制する自己回帰モデルとは異なり、OneFlowは個別のテキストトークンに対する挿入ベースのEdit Flowと、画像潜伏者のためのFlow Matchingを組み合わせる。
論文 参考訳(メタデータ) (2025-10-03T20:40:30Z) - Normalizing Flows are Capable Generative Models [48.31226028595099]
TarFlowはシンプルでスケーラブルなアーキテクチャで、高性能なNFモデルを実現する。
エンドツーエンドのトレーニングは簡単で、ピクセルを直接モデリングして生成することができる。
TarFlowは、画像の確率推定に新たな最先端結果を設定し、以前のベストメソッドを大きなマージンで上回る。
論文 参考訳(メタデータ) (2024-12-09T09:28:06Z) - Variational Flow Matching for Graph Generation [42.3778673162256]
分類データのフローマッチング手法であるCatFlowを開発した。
CatFlowは実装が容易で、計算効率が良く、グラフ生成タスクで強い結果が得られる。
論文 参考訳(メタデータ) (2024-06-07T11:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。