論文の概要: Understanding, Accelerating, and Improving MeanFlow Training
- arxiv url: http://arxiv.org/abs/2511.19065v1
- Date: Mon, 24 Nov 2025 12:59:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.201736
- Title: Understanding, Accelerating, and Improving MeanFlow Training
- Title(参考訳): 平均フロートレーニングを理解し、加速し、改善する
- Authors: Jin-Young Kim, Hyojun Go, Lea Bogensperger, Julius Erbach, Nikolai Kalischek, Federico Tombari, Konrad Schindler, Dominik Narnhofer,
- Abstract要約: MeanFlowは、瞬時および平均速度場を共同で学習することで、数ステップで高品質な生成モデリングを実現する。
両速度間の相互作用を分析し, (i) 確立された即時速度は平均速度を学習するための前提条件である。
即時速度の生成を加速する効果的なトレーニングスキームを設計し、その後、短区間平均速度から短区間平均速度に重点を移す。
- 参考スコア(独自算出の注目度): 64.84964628592418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: MeanFlow promises high-quality generative modeling in few steps, by jointly learning instantaneous and average velocity fields. Yet, the underlying training dynamics remain unclear. We analyze the interaction between the two velocities and find: (i) well-established instantaneous velocity is a prerequisite for learning average velocity; (ii) learning of instantaneous velocity benefits from average velocity when the temporal gap is small, but degrades as the gap increases; and (iii) task-affinity analysis indicates that smooth learning of large-gap average velocities, essential for one-step generation, depends on the prior formation of accurate instantaneous and small-gap average velocities. Guided by these observations, we design an effective training scheme that accelerates the formation of instantaneous velocity, then shifts emphasis from short- to long-interval average velocity. Our enhanced MeanFlow training yields faster convergence and significantly better few-step generation: With the same DiT-XL backbone, our method reaches an impressive FID of 2.87 on 1-NFE ImageNet 256x256, compared to 3.43 for the conventional MeanFlow baseline. Alternatively, our method matches the performance of the MeanFlow baseline with 2.5x shorter training time, or with a smaller DiT-L backbone.
- Abstract(参考訳): MeanFlowは、瞬時および平均速度場を共同で学習することで、数ステップで高品質な生成モデリングを実現する。
しかし、基礎となるトレーニングのダイナミクスはいまだに不明である。
2つの速度の間の相互作用を分析します。
一 確立した即時速度は、平均速度を学ぶための前提条件である。
二 時間的ギャップが小さいときの平均速度から即時速度を学習すること。ただし、ギャップが大きくなるにつれて劣化する。
三 タスク親和性分析は、一段階生成に不可欠な大域平均速度の円滑な学習が、正確な瞬時および小域平均速度の事前形成に依存していることを示す。
これらの観測から導かれ、即時速度の形成を加速する効果的なトレーニングスキームを設計し、その後、短区間平均速度から短区間平均速度に重点を移す。
同じDiT-XLバックボーンでは、従来のMeanFlowベースラインの3.43に比べて、1-NFE ImageNet 256x256で2.87の素晴らしいFIDに達しています。
また,本手法は,MeanFlowベースラインの性能を2.5倍のトレーニング時間,あるいはより小さなDiT-Lバックボーンで比較する。
関連論文リスト
- MeanFlow Transformers with Representation Autoencoders [71.45823902973349]
MeanFlow(MF)は、ノイズからデータへのジャンプを直接学習することで、効率的な数ステップ生成を可能にする拡散動機付き生成モデルである。
我々は、表現オートエンコーダ(RAE)の潜在空間におけるMFの効率的なトレーニングとサンプリング手法を開発する。
1ステップのFIDが2.03であり,バニラMFの3.43を上回っ,GFLOPSのサンプリングを38%削減し,ImageNet 256のトレーニングコストを83%削減した。
論文 参考訳(メタデータ) (2025-11-17T06:17:08Z) - Decoupled MeanFlow: Turning Flow Models into Flow Maps for Accelerated Sampling [68.76215229126886]
Decoupled MeanFlowは、フローモデルをアーキテクチャ変更なしにフローマップモデルに変換するシンプルなデコード戦略である。
提案手法では, 拡散変圧器の最終ブロックを後続の時間ステップに設定し, 事前学習した流れモデルを直接フローマップとして再利用する。
ImageNet 256x256 と 512x512 では、われわれのモデルはそれぞれ2.16 と2.12 の1ステップ FID に達し、先行技術よりも大きなマージンで上回っている。
論文 参考訳(メタデータ) (2025-10-28T14:43:48Z) - MeanFlowSE: one-step generative speech enhancement via conditional mean flow [13.437825847370442]
MeanFlowSEは、軌道に沿った有限区間の平均速度を学習する条件付き生成モデルである。
VoiceBank-DEMANDでは、シングルステップモデルは多ステップベースラインよりも計算コストが大幅に低い強い知性、忠実性、知覚品質を実現する。
論文 参考訳(メタデータ) (2025-09-18T11:24:47Z) - SplitMeanFlow: Interval Splitting Consistency in Few-Step Generative Modeling [23.539625950964876]
Flow Matchingのような生成モデルは最先端のパフォーマンスを達成したが、しばしば計算コストのかかる反復サンプリングプロセスによって妨げられている。
この分野の先導的手法であるMeanFlowは、平均速度と瞬間速度を接続する差分IDを強制することによって、この分野を学習する。
この研究において、この微分定式化はより基本的な原理の限定的な特別な場合であると主張する。
SplitMeanFlowは、学習目的として、この代数的一貫性を直接強制する新しいトレーニングフレームワークです。
論文 参考訳(メタデータ) (2025-07-22T16:26:58Z) - A Stable Whitening Optimizer for Efficient Neural Network Training [99.7641280234926]
アルゴリズムのシャンプー系をベースとして,3つの重要な問題を同定・緩和し,SPlus法を提案する。
まず,行列逆が長期にわたってキャッシュされる場合,素早いシャンプーは分岐しがちであることがわかった。
第二に、ネットワーク幅をまたいで学習率の伝達を可能にするために、形状認識スケーリングを適用する。
第3に,高い学習率によってパラメータノイズが大きくなり,より高速な学習をブロックする簡単な反復学習方式を提案する。
論文 参考訳(メタデータ) (2025-06-08T18:43:31Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。