論文の概要: AlphaFlow: Understanding and Improving MeanFlow Models
- arxiv url: http://arxiv.org/abs/2510.20771v1
- Date: Thu, 23 Oct 2025 17:45:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.51798
- Title: AlphaFlow: Understanding and Improving MeanFlow Models
- Title(参考訳): AlphaFlow: MeanFlowモデルの理解と改善
- Authors: Huijie Zhang, Aliaksandr Siarohin, Willi Menapace, Michael Vasilkovsky, Sergey Tulyakov, Qing Qu, Ivan Skorokhodov,
- Abstract要約: その結果,MeanFlowの目的は,トラジェクティブフローマッチングとトラジェクトリ一貫性という2つの部分に分けられることがわかった。
これらの知見に触発されて、軌跡フローマッチング、ショートカットモデル、MeanFlowを統一する目的の広いファミリーである$alpha$-Flowを紹介した。
クラス条件のImageNet-1K 256x256をバニラのDiTバックボーンでスクラッチからトレーニングすると、$alpha$-Flowはスケールと設定でMeanFlowを一貫して上回る。
- 参考スコア(独自算出の注目度): 74.64465762009475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: MeanFlow has recently emerged as a powerful framework for few-step generative modeling trained from scratch, but its success is not yet fully understood. In this work, we show that the MeanFlow objective naturally decomposes into two parts: trajectory flow matching and trajectory consistency. Through gradient analysis, we find that these terms are strongly negatively correlated, causing optimization conflict and slow convergence. Motivated by these insights, we introduce $\alpha$-Flow, a broad family of objectives that unifies trajectory flow matching, Shortcut Model, and MeanFlow under one formulation. By adopting a curriculum strategy that smoothly anneals from trajectory flow matching to MeanFlow, $\alpha$-Flow disentangles the conflicting objectives, and achieves better convergence. When trained from scratch on class-conditional ImageNet-1K 256x256 with vanilla DiT backbones, $\alpha$-Flow consistently outperforms MeanFlow across scales and settings. Our largest $\alpha$-Flow-XL/2+ model achieves new state-of-the-art results using vanilla DiT backbones, with FID scores of 2.58 (1-NFE) and 2.15 (2-NFE).
- Abstract(参考訳): MeanFlowは最近、スクラッチからトレーニングされた数ステップの生成モデリングのための強力なフレームワークとして登場したが、その成功はまだ完全には理解されていない。
本研究では,MeanFlowの目的をトラジェクティブフローマッチングとトラジェクトリ一貫性という2つの部分に自然に分解することを示す。
勾配解析により、これらの項は負の相関関係が強く、最適化の矛盾と収束が遅いことが分かる。
これらの知見に触発されて,1つの定式化の下で軌跡フローマッチング,ショートカットモデル,メアンフローを統一する目的の広いファミリーである$\alpha$-Flowを紹介した。
MeanFlowと一致する軌道フローから順応するカリキュラム戦略を採用することで、$\alpha$-Flowは競合する目標を混乱させ、より良い収束を達成する。
クラス条件の ImageNet-1K 256x256 をバニラ DiT バックボーンでスクラッチからトレーニングすると、$\alpha$-Flow はスケールと設定でMeanFlow を一貫して上回る。
我々の最大の$\alpha$-Flow-XL/2+モデルは、2.58 (1-NFE)と2.15 (2-NFE)のFIDスコアを持つバニラDiTバックボーンを用いて、最先端の新たな結果を得る。
関連論文リスト
- RMFlow: Refined Mean Flow by a Noise-Injection Step for Multimodal Generation [12.979642182577157]
平均フロー (MeanFlow) は効率よく高忠実な画像を生成することができるが、その単一関数評価 (1-NFE) 生成は説得力のある結果を得ることができないことが多い。
我々は、粗い1-NFE MeanFlowトランスポートと調整されたノイズ注入改善ステップを統合した、効率的なマルチモーダル生成モデルRMFlowを紹介する。
RMFlowは、1-NFEのみを使用してテキスト・トゥ・イメージ、コンテキスト・トゥ・分子、時系列生成に関する最先端の成果を、ベースラインのMeanFlowsに匹敵する計算コストで達成する。
論文 参考訳(メタデータ) (2026-01-31T18:27:05Z) - TwinFlow: Realizing One-step Generation on Large Models with Self-adversarial Flows [25.487712175353035]
1ステップ生成モデルをトレーニングするフレームワークであるTwinFlowを提案する。
本手法は,テキスト・ツー・イメージタスクにおいて1-NFEで0.83のGenEvalスコアを得る。
提案手法は,GenEval および DPG-Bench ベンチマーク上でのオリジナルの 100-NFE モデルの性能と一致する。
論文 参考訳(メタデータ) (2025-12-03T07:45:46Z) - Improved Mean Flows: On the Challenges of Fastforward Generative Models [81.10827083963655]
MeanFlow (MF)は、最近ワンステップ生成モデリングのフレームワークとして確立されている。
ここでは、トレーニング目標とガイダンスメカニズムの両方において、重要な課題に対処する。
我々の改革により、より標準的な回帰問題が発生し、訓練安定性が向上する。
全体として、スクラッチから完全にトレーニングされた$textbfimproved MeanFlow$$(textbfiMF$)メソッドは、ImageNet 256$times$256上の単一の関数評価(1-NFE)で$textbf1.72$ FIDを達成する。
論文 参考訳(メタデータ) (2025-12-01T18:59:49Z) - OneFlow: Concurrent Mixed-Modal and Interleaved Generation with Edit Flows [59.052955667723985]
可変長および同時混合モード生成が可能な最初の非自己回帰型マルチモーダルモデルであるOneFlowを提案する。
テキストと画像生成の間の厳格な因果順序を強制する自己回帰モデルとは異なり、OneFlowは個別のテキストトークンに対する挿入ベースのEdit Flowと、画像潜伏者のためのFlow Matchingを組み合わせる。
論文 参考訳(メタデータ) (2025-10-03T20:40:30Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - Normalizing Flows are Capable Generative Models [48.31226028595099]
TarFlowはシンプルでスケーラブルなアーキテクチャで、高性能なNFモデルを実現する。
エンドツーエンドのトレーニングは簡単で、ピクセルを直接モデリングして生成することができる。
TarFlowは、画像の確率推定に新たな最先端結果を設定し、以前のベストメソッドを大きなマージンで上回る。
論文 参考訳(メタデータ) (2024-12-09T09:28:06Z) - Variational Flow Matching for Graph Generation [42.3778673162256]
分類データのフローマッチング手法であるCatFlowを開発した。
CatFlowは実装が容易で、計算効率が良く、グラフ生成タスクで強い結果が得られる。
論文 参考訳(メタデータ) (2024-06-07T11:16:17Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z) - ShapeFlow: Dynamic Shape Interpreter for TensorFlow [10.59840927423059]
本稿では,形状不整合誤差を高速にキャッチする動的抽象的インタプリタであるShapeFlowを提案する。
ShapeFlowは、プログラマが使用する計算グラフと同様、カスタム形状の計算グラフを構築する。
本研究では, 前回の実証実験で収集した52プログラムのShapeFlowを評価し, 形状不整合誤差をいかに高速かつ正確に把握できるかを示した。
論文 参考訳(メタデータ) (2020-11-26T19:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。