論文の概要: FlowCast: Trajectory Forecasting for Scalable Zero-Cost Speculative Flow Matching
- arxiv url: http://arxiv.org/abs/2602.01329v1
- Date: Sun, 01 Feb 2026 16:50:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.717114
- Title: FlowCast: Trajectory Forecasting for Scalable Zero-Cost Speculative Flow Matching
- Title(参考訳): FlowCast: スケーラブルゼロコスト投機フローマッチングのための軌道予測
- Authors: Divya Jyoti Bajpai, Shubham Agarwal, Apoorv Saxena, Kuldeep Kulkarni, Subrata Mitra, Manjesh Kumar Hanawal,
- Abstract要約: Flow Matching (FM)は、最近、高品質なビジュアル生成のための強力なアプローチとして登場した。
既存の加速法、例えば蒸留、トランケーション、整合性トレーニングは、品質を低下させるか、コストのかかる再訓練、あるいは一般化の欠如をもたらす。
本研究では,FMモデルが一定の速度を維持するためにトレーニングされているという事実を利用して,推論を高速化する,トレーニング不要な投機生成フレームワークであるFlowCastを提案する。
- 参考スコア(独自算出の注目度): 23.722244033333947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow Matching (FM) has recently emerged as a powerful approach for high-quality visual generation. However, their prohibitively slow inference due to a large number of denoising steps limits their potential use in real-time or interactive applications. Existing acceleration methods, like distillation, truncation, or consistency training, either degrade quality, incur costly retraining, or lack generalization. We propose FlowCast, a training-free speculative generation framework that accelerates inference by exploiting the fact that FM models are trained to preserve constant velocity. FlowCast speculates future velocity by extrapolating current velocity without incurring additional time cost, and accepts it if it is within a mean-squared error threshold. This constant-velocity forecasting allows redundant steps in stable regions to be aggressively skipped while retaining precision in complex ones. FlowCast is a plug-and-play framework that integrates seamlessly with any FM model and requires no auxiliary networks. We also present a theoretical analysis and bound the worst-case deviation between speculative and full FM trajectories. Empirical evaluations demonstrate that FlowCast achieves $>2.5\times$ speedup in image generation, video generation, and editing tasks, outperforming existing baselines with no quality loss as compared to standard full generation.
- Abstract(参考訳): Flow Matching (FM)は、最近、高品質なビジュアル生成のための強力なアプローチとして登場した。
しかし、多くのデノナイジングステップによって、リアルタイムやインタラクティブなアプリケーションでの使用が制限されるため、これらの推論は極めて遅い。
既存の加速法、例えば蒸留、トランケーション、整合性トレーニングは、品質を低下させるか、コストのかかる再訓練、あるいは一般化の欠如をもたらす。
本研究では,FMモデルが一定の速度を維持するためにトレーニングされているという事実を利用して,推論を高速化する,トレーニング不要な投機生成フレームワークであるFlowCastを提案する。
FlowCastは、追加の時間コストを発生させることなく、現在の速度を外挿することで将来の速度を推測し、平均二乗誤差閾値内であれば受け入れる。
この定速度予測により、安定領域の冗長なステップは、複雑な領域の精度を維持しながら積極的にスキップされる。
FlowCastはどんなFMモデルともシームレスに統合できるプラグイン・アンド・プレイのフレームワークであり、補助的なネットワークを必要としない。
また, 理論的解析を行い, 投機的軌道と完全なFM軌道との最悪のずれについて検討した。
実証的な評価によると、FlowCastは画像生成、ビデオ生成、編集タスクにおいて、標準のフルジェネレーションと比べて、既存のベースラインを上回り、品質を損なうことなく、$2.5\times$のスピードアップを実現している。
関連論文リスト
- FlowCast-ODE: Continuous Hourly Weather Forecasting with Dynamic Flow Matching and ODE Solver [9.487599354465486]
本研究では,時間的コヒーレンスを確保するために,大気の進化を連続的な流れとして扱うフレームワークであるFlowCast-ODEを紹介する。
6時間間隔で事前トレーニングし、データ不連続をサイドステップし、時間単位のデータで微調整することで、FlowCast-ODEは単一の軽量モデルで最大120時間のシームレスな予測を生成する。
論文 参考訳(メタデータ) (2025-09-18T09:24:57Z) - Self Forcing: Bridging the Train-Test Gap in Autoregressive Video Diffusion [67.94300151774085]
本稿では,自己回帰ビデオ拡散モデルのための新しい訓練パラダイムであるSelf Forcingを紹介する。
露光バイアスの長年の問題に対処し、地道的な文脈で訓練されたモデルは、自身の不完全な出力で条件付けられたシーケンスを生成する必要がある。
論文 参考訳(メタデータ) (2025-06-09T17:59:55Z) - FLEX: A Backbone for Diffusion-Based Modeling of Spatio-temporal Physical Systems [51.15230303652732]
FLEX (F Low Expert) は、時間物理系の生成モデリングのためのバックボーンアーキテクチャである。
拡散モデルにおける速度場の分散を低減し、トレーニングの安定化に役立つ。
少数の特徴を2つの逆拡散ステップとして用いて、超解像および予測タスクの正確な予測を行う。
論文 参考訳(メタデータ) (2025-05-23T00:07:59Z) - Consistency Flow Matching: Defining Straight Flows with Velocity Consistency [97.28511135503176]
本稿では,速度場の自己整合性を明示する新しいFM法であるConsistency Flow Matching(Consistency-FM)を紹介する。
予備実験により、一貫性FMは、一貫性モデルよりも4.4倍速く収束することにより、トレーニング効率を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-07-02T16:15:37Z) - Improving Consistency Models with Generator-Augmented Flows [16.049476783301724]
一貫性モデルは、ニューラルネットワークの単一前方通過におけるスコアベース拡散の多段階サンプリングを模倣する。
それらは、一貫性の蒸留と一貫性のトレーニングの2つの方法を学ぶことができる。
本稿では,一貫性モデルから得られたノイズデータを対応する出力へ転送する新しい流れを提案する。
論文 参考訳(メタデータ) (2024-06-13T20:22:38Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。