論文の概要: Look-Ahead and Look-Back Flows: Training-Free Image Generation with Trajectory Smoothing
- arxiv url: http://arxiv.org/abs/2602.09449v1
- Date: Tue, 10 Feb 2026 06:34:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.409982
- Title: Look-Ahead and Look-Back Flows: Training-Free Image Generation with Trajectory Smoothing
- Title(参考訳): ルックアヘッドとルックバックフロー:軌道平滑化による訓練不要画像生成
- Authors: Yan Luo, Henry Huang, Todd Y. Zhou, Mengyu Wang,
- Abstract要約: 流速場調整による画像生成を改善するため, 各種トレーニングフリーなフローマッチング手法が開発されている。
本研究では, 曲率ゲートウェイトを用いて, 電流および次ステップの潜伏を平均化するemphLook-Aheadと, 指数移動平均を用いて潜伏を滑らかにするemphLook-Backの2つの学習自由軌道平滑化手法を提案する。
- 参考スコア(独自算出の注目度): 3.77130368225397
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances have reformulated diffusion models as deterministic ordinary differential equations (ODEs) through the framework of flow matching, providing a unified formulation for the noise-to-data generative process. Various training-free flow matching approaches have been developed to improve image generation through flow velocity field adjustment, eliminating the need for costly retraining. However, Modifying the velocity field $v$ introduces errors that propagate through the full generation path, whereas adjustments to the latent trajectory $z$ are naturally corrected by the pretrained velocity network, reducing error accumulation. In this paper, we propose two complementary training-free latent-trajectory adjustment approaches based on future and past velocity $v$ and latent trajectory $z$ information that refine the generative path directly in latent space. We propose two training-free trajectory smoothing schemes: \emph{Look-Ahead}, which averages the current and next-step latents using a curvature-gated weight, and \emph{Look-Back}, which smoothes latents using an exponential moving average with decay. We demonstrate through extensive experiments and comprehensive evaluation metrics that the proposed training-free trajectory smoothing models substantially outperform various state-of-the-art models across multiple datasets including COCO17, CUB-200, and Flickr30K.
- Abstract(参考訳): 近年,拡散モデルをフローマッチングの枠組みを通じて決定論的常微分方程式(ODE)として再構成し,ノイズ・データ生成過程の統一的な定式化を実現している。
流速場調整による画像生成を改善するため, トレーニング不要なフローマッチング手法が開発され, コストのかかるリトレーニングの必要性が排除された。
しかし、速度場を変更する$v$は、全生成経路を伝播するエラーを導入するが、潜在軌道の$z$に対する調整は、予め訓練された速度ネットワークによって自然に補正され、エラーの蓄積が減少する。
本稿では,2つの相補的学習自由遅延軌道補正手法を提案する。
そこで本稿では, 曲率ゲートウェイトを用いて現在および次段階の潜伏を平均化する 'emph{Look-Ahead} と, 減衰を伴う指数移動平均を用いて潜伏を滑らか化する \emph{Look-Back} の2つの訓練自由軌道平滑化スキームを提案する。
提案手法はCOCO17, CUB-200, Flickr30Kを含む複数のデータセットにおいて, トレーニング不要な軌道平滑化モデルにおいて, 様々な最先端モデルよりも大幅に優れていることを示す。
関連論文リスト
- Predict to Skip: Linear Multistep Feature Forecasting for Efficient Diffusion Transformers [10.751183015853863]
拡散変換器(DiT)は高忠実度画像とビデオ生成のバックボーンとして広く採用されている。
線形多段階問題として特徴予測を定式化する,トレーニング不要なアクセラレーションフレームワークである textbfPrediT を提案する。
提案手法は,DiTベースの画像およびビデオ生成モデル間で最大5.54タイムのレイテンシ低減を実現し,品質劣化を生じさせる。
論文 参考訳(メタデータ) (2026-02-20T09:33:59Z) - ArcFlow: Unleashing 2-Step Text-to-Image Generation via High-Precision Non-Linear Flow Distillation [87.54456066636811]
拡散モデルは、シーケンシャルなデノナイジングステップに依存するため、かなりの推論コストに悩まされる。
ArcFlowは数段階の蒸留フレームワークであり、事前訓練された教師の軌跡を近似するために、非線形フロー軌跡を明示的に用いている。
2つのNFEで40倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2026-02-09T18:56:14Z) - FlowConsist: Make Your Flow Consistent with Real Trajectory [99.22869983378062]
現在の高速フロートレーニングパラダイムには,2つの根本的な問題がある,と我々は主張する。
ランダムにペアリングされたノイズデータサンプルから構築された条件付き速度は、系統的な軌跡ドリフトを導入する。
本研究では,高速フローにおける軌道整合性を実現するためのトレーニングフレームワークであるFlowConsistを提案する。
論文 参考訳(メタデータ) (2026-02-06T03:24:23Z) - Temporal Pair Consistency for Variance-Reduced Flow Matching [13.328987133593154]
TPC(Temporal Pair Consistency)は、同じ確率経路に沿ってペア化された時間ステップで速度予測を結合する軽量な分散還元原理である。
フローマッチング内で確立されたTPCは、複数の解像度でCIFAR-10とImageNetのサンプル品質と効率を改善する。
論文 参考訳(メタデータ) (2026-02-04T00:05:21Z) - Trajectory Consistency for One-Step Generation on Euler Mean Flows [24.038760671907024]
本研究では,フローベース生成フレームワークであるemphEuler Mean Flows (EMF)を提案する。
EMFは最小サンプリングコストで長距離軌道の整合性を実現する。
論文 参考訳(メタデータ) (2026-01-31T04:32:32Z) - Generative Modeling with Continuous Flows: Sample Complexity of Flow Matching [60.37045080890305]
本稿では,フローマッチングに基づく生成モデルにおいて,サンプルの複雑さを初めて解析する。
速度場推定誤差をニューラルネットワーク近似誤差、有限標本サイズによる統計的誤差、速度場推定のための有限個の最適化ステップによる最適化誤差に分解する。
論文 参考訳(メタデータ) (2025-12-01T05:14:25Z) - Flow-GRPO: Training Flow Matching Models via Online RL [80.62659379624867]
本稿では,オンライン政策強化学習をフローマッチングモデルに統合する最初の方法であるFlow-GRPOを提案する。
提案手法では,(1)決定論的正規微分方程式を同値な微分方程式に変換するODE-to-SDE変換と,(2)推論ステップの数を維持しながらトレーニングの段階を短縮するDenoising Reduction戦略の2つの主要な戦略を用いる。
論文 参考訳(メタデータ) (2025-05-08T17:58:45Z) - SCoT: Unifying Consistency Models and Rectified Flows via Straight-Consistent Trajectories [31.60548236936739]
本研究では,事前学習した拡散モデルに対する直線一貫性軌道(SCoT)モデルを提案する。
SCoTは、高速サンプリングのための両方のアプローチの利点を享受し、一貫した特性と直線的な性質のトラジェクトリを同時に生成する。
論文 参考訳(メタデータ) (2025-02-24T08:57:19Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Minimizing Trajectory Curvature of ODE-based Generative Models [45.89620603363946]
拡散モデル、整流モデル、流れマッチングなどの最近の生成モデルは、生成過程を固定前進過程の時間反転として定義する。
我々は, ODE/SDEシミュレーションを使わずに生成軌道の曲率を最小化するために, 前進過程を効率的に訓練する方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T21:52:03Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。