論文の概要: Improved Mean Flows: On the Challenges of Fastforward Generative Models
- arxiv url: http://arxiv.org/abs/2512.02012v1
- Date: Mon, 01 Dec 2025 18:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:35.040477
- Title: Improved Mean Flows: On the Challenges of Fastforward Generative Models
- Title(参考訳): 改善された平均フロー:高速な生成モデルへの挑戦
- Authors: Zhengyang Geng, Yiyang Lu, Zongze Wu, Eli Shechtman, J. Zico Kolter, Kaiming He,
- Abstract要約: MeanFlow (MF)は、最近ワンステップ生成モデリングのフレームワークとして確立されている。
ここでは、トレーニング目標とガイダンスメカニズムの両方において、重要な課題に対処する。
我々の改革により、より標準的な回帰問題が発生し、訓練安定性が向上する。
全体として、スクラッチから完全にトレーニングされた$textbfimproved MeanFlow$$(textbfiMF$)メソッドは、ImageNet 256$times$256上の単一の関数評価(1-NFE)で$textbf1.72$ FIDを達成する。
- 参考スコア(独自算出の注目度): 81.10827083963655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MeanFlow (MF) has recently been established as a framework for one-step generative modeling. However, its ``fastforward'' nature introduces key challenges in both the training objective and the guidance mechanism. First, the original MF's training target depends not only on the underlying ground-truth fields but also on the network itself. To address this issue, we recast the objective as a loss on the instantaneous velocity $v$, re-parameterized by a network that predicts the average velocity $u$. Our reformulation yields a more standard regression problem and improves the training stability. Second, the original MF fixes the classifier-free guidance scale during training, which sacrifices flexibility. We tackle this issue by formulating guidance as explicit conditioning variables, thereby retaining flexibility at test time. The diverse conditions are processed through in-context conditioning, which reduces model size and benefits performance. Overall, our $\textbf{improved MeanFlow}$ ($\textbf{iMF}$) method, trained entirely from scratch, achieves $\textbf{1.72}$ FID with a single function evaluation (1-NFE) on ImageNet 256$\times$256. iMF substantially outperforms prior methods of this kind and closes the gap with multi-step methods while using no distillation. We hope our work will further advance fastforward generative modeling as a stand-alone paradigm.
- Abstract(参考訳): MeanFlow (MF)は、最近ワンステップ生成モデリングのフレームワークとして確立されている。
しかし、その ‘fastforward’ という性質は、トレーニング目標とガイダンスメカニズムの両方において重要な課題をもたらす。
第一に、元のMFのトレーニングターゲットは、基盤となる地平線だけでなく、ネットワーク自体にも依存する。
この問題に対処するため、平均速度を$u$と予測するネットワークによって再パラメータ化される即時速度$v$の損失として目的を再評価する。
我々の改革により、より標準的な回帰問題が発生し、訓練安定性が向上する。
第二に、オリジナルのMFはトレーニング中に分類器なしのガイダンス尺度を修正し、柔軟性を犠牲にする。
我々は、ガイダンスを明示的な条件変数として定式化し、テスト時に柔軟性を維持することでこの問題に対処する。
さまざまな条件はコンテキスト内条件付けによって処理されるため、モデルのサイズが小さくなり、パフォーマンスが向上する。
全体として、ゼロから完全にトレーニングされた$\textbf{improved MeanFlow}$$$\textbf{iMF}$)メソッドは、ImageNet 256$\times$256の単一関数評価(1-NFE)で$\textbf{1.72}$ FIDを達成する。
iMFは、この種の従来の方法よりも大幅に優れており、蒸留を使わずに多段階法でギャップを埋める。
我々は、スタンドアローンのパラダイムとして、ファストフォワード生成モデリングをさらに前進させることを願っている。
関連論文リスト
- MeanFlow Transformers with Representation Autoencoders [71.45823902973349]
MeanFlow(MF)は、ノイズからデータへのジャンプを直接学習することで、効率的な数ステップ生成を可能にする拡散動機付き生成モデルである。
我々は、表現オートエンコーダ(RAE)の潜在空間におけるMFの効率的なトレーニングとサンプリング手法を開発する。
1ステップのFIDが2.03であり,バニラMFの3.43を上回っ,GFLOPSのサンプリングを38%削減し,ImageNet 256のトレーニングコストを83%削減した。
論文 参考訳(メタデータ) (2025-11-17T06:17:08Z) - Modular MeanFlow: Towards Stable and Scalable One-Step Generative Modeling [0.07646713951724012]
一段階生成モデリングは、単一関数評価において高品質なデータサンプルを生成することを目指している。
本研究では、時間平均速度場を学習するための柔軟で理論的に基礎付けられたアプローチであるModular MeanFlowを紹介する。
論文 参考訳(メタデータ) (2025-08-24T16:00:08Z) - Flow-Anchored Consistency Models [32.04797599813587]
継続的一貫性モデル(CM)は効率的な数ステップ生成を約束するが、トレーニングの不安定さに直面する。
確率流を横断するショートカットのみを学習するようにネットワークを訓練することで、モデルがフローを定義する瞬間的な速度場を把握できなくなる。
本稿では,フローマッチングタスクをメインのCMショートカット目的のアンカーとして使用する,シンプルかつ効果的なトレーニング戦略であるフローアンコール一貫性モデル(FACM)を紹介する。
論文 参考訳(メタデータ) (2025-07-04T17:56:51Z) - Intention-Conditioned Flow Occupancy Models [80.42634994902858]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - FINE: Factorizing Knowledge for Initialization of Variable-sized Diffusion Models [35.40065954148091]
FINEはLearngeneフレームワークに基づく、事前訓練されたモデルを利用した下流ネットワークの初期化手法である。
事前学習された知識を行列の積(例えば$U$, $Sigma$, $V$)に分解する。
これは、特により小さなモデルにおいて、直接事前訓練よりも一貫して優れており、可変モデルのサイズで最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-09-28T08:57:17Z) - DEFT: Efficient Fine-Tuning of Diffusion Models by Learning the Generalised $h$-transform [44.29325094229024]
DFT(Doob's h-transform Efficient FineTuning)は、非常に小さなネットワークを微調整して条件付き$h$-transformを高速に学習する条件生成手法である。
画像再構成作業では, 自然画像の知覚品質と医用画像の再現性能を最良に保ちながら, 最大1.6$times$の高速化を実現している。
論文 参考訳(メタデータ) (2024-06-03T20:52:34Z) - Not All Models Are Equal: Predicting Model Transferability in a
Self-challenging Fisher Space [51.62131362670815]
本稿では、トレーニング済みのディープニューラルネットワークのランク付けと、下流タスクにおける最も転送可能なニューラルネットワークのスクリーニングの問題に対処する。
textbfSelf-challenging textbfFisher textbfDiscriminant textbfAnalysis (textbfSFDA)と呼ばれる新しい転送可能性指標を提案する。
論文 参考訳(メタデータ) (2022-07-07T01:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。