論文の概要: FastFlow: Accelerating The Generative Flow Matching Models with Bandit Inference
- arxiv url: http://arxiv.org/abs/2602.11105v1
- Date: Wed, 11 Feb 2026 18:21:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.301952
- Title: FastFlow: Accelerating The Generative Flow Matching Models with Bandit Inference
- Title(参考訳): FastFlow: 生成フローマッチングモデルをバンド推論で高速化する
- Authors: Divya Jyoti Bajpai, Dhruv Bhardwaj, Soumya Roy, Tejas Duseja, Harsh Agarwal, Aashay Sandansing, Manjesh Kumar Hanawal,
- Abstract要約: フローマッチングモデルは、画像およびビデオ生成における最先端の忠実度を提供するが、固有のシーケンシャルなデノジングプロセスはそれらを遅くする。
我々は,フローマッチングモデルの生成を高速化するプラグイン・アンド・プレイ適応型推論フレームワークであるFastFlowを提案する。
実験では、高品質な出力を維持しながら2.6倍以上のスピードアップを示す。
- 参考スコア(独自算出の注目度): 10.34801095627052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow-matching models deliver state-of-the-art fidelity in image and video generation, but the inherent sequential denoising process renders them slower. Existing acceleration methods like distillation, trajectory truncation, and consistency approaches are static, require retraining, and often fail to generalize across tasks. We propose FastFlow, a plug-and-play adaptive inference framework that accelerates generation in flow matching models. FastFlow identifies denoising steps that produce only minor adjustments to the denoising path and approximates them without using the full neural network models used for velocity predictions. The approximation utilizes finite-difference velocity estimates from prior predictions to efficiently extrapolate future states, enabling faster advancements along the denoising path at zero compute cost. This enables skipping computation at intermediary steps. We model the decision of how many steps to safely skip before requiring a full model computation as a multi-armed bandit problem. The bandit learns the optimal skips to balance speed with performance. FastFlow integrates seamlessly with existing pipelines and generalizes across image generation, video generation, and editing tasks. Experiments demonstrate a speedup of over 2.6x while maintaining high-quality outputs. The source code for this work can be found at https://github.com/Div290/FastFlow.
- Abstract(参考訳): フローマッチングモデルは、画像およびビデオ生成における最先端の忠実度を提供するが、固有のシーケンシャルなデノジングプロセスはそれらを遅くする。
蒸留、トラジェクトリ・トランケーション、整合性アプローチといった既存の加速法は静的であり、再訓練を必要とし、しばしばタスクをまたいだ一般化に失敗する。
我々は,フローマッチングモデルの生成を高速化するプラグイン・アンド・プレイ適応型推論フレームワークであるFastFlowを提案する。
FastFlowは、デノナイジングパスへの微調整のみを生成するデノナイジングステップを特定し、ベロシティ予測に使用する完全なニューラルネットワークモデルを用いることなく、それらを近似する。
この近似は、先行予測からの有限差速度推定を利用して、将来の状態を効率的に外挿し、計算コストゼロでデノナイジングパスに沿って高速な進行を可能にする。
これにより、中間ステップで計算をスキップすることができる。
我々は、マルチアームバンディット問題として完全なモデル計算を必要とする前に、安全にスキップするステップの数をモデル化する。
バンディットは、速度と性能のバランスをとるために最適なスキップを学ぶ。
FastFlowは既存のパイプラインとシームレスに統合され、画像生成、ビデオ生成、編集タスクにまたがって一般化される。
実験では、高品質な出力を維持しながら2.6倍以上のスピードアップを示す。
この作業のソースコードはhttps://github.com/Div290/FastFlowにある。
関連論文リスト
- FlowConsist: Make Your Flow Consistent with Real Trajectory [99.22869983378062]
現在の高速フロートレーニングパラダイムには,2つの根本的な問題がある,と我々は主張する。
ランダムにペアリングされたノイズデータサンプルから構築された条件付き速度は、系統的な軌跡ドリフトを導入する。
本研究では,高速フローにおける軌道整合性を実現するためのトレーニングフレームワークであるFlowConsistを提案する。
論文 参考訳(メタデータ) (2026-02-06T03:24:23Z) - SoFlow: Solution Flow Models for One-Step Generative Modeling [10.054000663262618]
Flow Models (SoFlow)は、一段階生成をスクラッチから行うためのフレームワークである。
フローマッチングの損失により、トレーニング中に推定速度場を提供できる。
我々のモデルは、ImageNet 256x256データセット上のMeanFlowモデルよりも優れたFID-50Kスコアを達成する。
論文 参考訳(メタデータ) (2025-12-17T18:10:17Z) - Flow Straighter and Faster: Efficient One-Step Generative Modeling via MeanFlow on Rectified Trajectories [14.36205662558203]
Rectified MeanFlowは、単一のリフローステップのみを使用して、修正された軌道に沿った平均速度場をモデル化するフレームワークである。
64、256、および512の解像度でのImageNetの実験では、Re-MeanFlowは、サンプルの品質とトレーニング効率の両方で、一段階の蒸留法とRectified Flow法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-28T16:50:08Z) - Decoupled MeanFlow: Turning Flow Models into Flow Maps for Accelerated Sampling [68.76215229126886]
Decoupled MeanFlowは、フローモデルをアーキテクチャ変更なしにフローマップモデルに変換するシンプルなデコード戦略である。
提案手法では, 拡散変圧器の最終ブロックを後続の時間ステップに設定し, 事前学習した流れモデルを直接フローマップとして再利用する。
ImageNet 256x256 と 512x512 では、われわれのモデルはそれぞれ2.16 と2.12 の1ステップ FID に達し、先行技術よりも大きなマージンで上回っている。
論文 参考訳(メタデータ) (2025-10-28T14:43:48Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - Fast constrained sampling in pre-trained diffusion models [80.99262780028015]
任意の制約下で高速で高品質な生成を可能にするアルゴリズムを提案する。
我々の手法は、最先端のトレーニングフリー推論手法に匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - FlowTurbo: Towards Real-time Flow-Based Image Generation with Velocity Refiner [70.90505084288057]
フローベースモデルはサンプリングプロセス中により直線的なサンプリング軌道を生成する傾向にある。
擬似修正器やサンプル認識コンパイルなどいくつかの手法を導入し,推論時間をさらに短縮する。
FlowTurboはImageNet上で100(ms/img)で2.12FID、38(ms/img)で3.93FIDに達する
論文 参考訳(メタデータ) (2024-09-26T17:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。