論文の概要: BézierFlow: Bézier Stochastic Interpolant Schedulers for Few-Step Generation
- arxiv url: http://arxiv.org/abs/2512.13255v1
- Date: Mon, 15 Dec 2025 12:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.652648
- Title: BézierFlow: Bézier Stochastic Interpolant Schedulers for Few-Step Generation
- Title(参考訳): BézierFlow:Few-Step生成のためのBézier Stochastic Interpolant Scheduler
- Authors: Yunhong Min, Juil Koo, Seungwoo Yoo, Minhyuk Sung,
- Abstract要約: BézierFlowは、事前トレーニングされた拡散とフローモデルを備えた、数ステップ生成のための軽量なトレーニングアプローチである。
トレーニングに15分しか必要とせず、$leq$10 NFEでサンプリングするための2~3倍のパフォーマンス向上を実現している。
- 参考スコア(独自算出の注目度): 28.843280365794683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce BézierFlow, a lightweight training approach for few-step generation with pretrained diffusion and flow models. BézierFlow achieves a 2-3x performance improvement for sampling with $\leq$ 10 NFEs while requiring only 15 minutes of training. Recent lightweight training approaches have shown promise by learning optimal timesteps, but their scope remains restricted to ODE discretizations. To broaden this scope, we propose learning the optimal transformation of the sampling trajectory by parameterizing stochastic interpolant (SI) schedulers. The main challenge lies in designing a parameterization that satisfies critical desiderata, including boundary conditions, differentiability, and monotonicity of the SNR. To effectively meet these requirements, we represent scheduler functions as Bézier functions, where control points naturally enforce these properties. This reduces the problem to learning an ordered set of points in the time range, while the interpretation of the points changes from ODE timesteps to Bézier control points. Across a range of pretrained diffusion and flow models, BézierFlow consistently outperforms prior timestep-learning methods, demonstrating the effectiveness of expanding the search space from discrete timesteps to Bézier-based trajectory transformations.
- Abstract(参考訳): BézierFlowは、事前訓練された拡散とフローモデルを備えた、数ステップ生成のための軽量なトレーニング手法である。
BézierFlowは、$\leq$10 NFEでサンプリングするための2~3倍のパフォーマンス向上を実現し、トレーニングに15分しか必要としない。
最近の軽量トレーニングアプローチでは、最適なタイムステップを学習することで、将来性を示しているが、そのスコープはODEの離散化に限定されている。
この範囲を広げるために、確率補間器(SI)スケジューラのパラメータ化によりサンプリング軌道の最適変換を学習することを提案する。
主な課題は、境界条件、微分可能性、SNRの単調性を含む臨界デシダラタを満たすパラメータ化を設計することである。
これらの要求を効果的に満たすため、スケジューラ関数をベジエ関数として表現し、制御点がこれらの性質を自然に強制する。
これにより、点の解釈がODEのタイムステップからベジエのコントロールポイントに変化する一方で、時間範囲における順序付けられた点集合の学習に問題が還元される。
事前訓練された拡散とフローモデルの範囲で、ベジエFlowは、離散時間ステップからベジエベースの軌道変換への探索空間の拡張の有効性を実証し、先行時間ステップ学習法を一貫して上回っている。
関連論文リスト
- ProjFlow: Projection Sampling with Flow Matching for Zero-Shot Exact Spatial Motion Control [24.778385441690464]
ProjFlowは、運動リアリズムを保ちながら、線形空間制約のゼロショット、正確な満足度を達成する訓練不要なサンプルラーである。
鍵となる進歩は、骨格トポロジーを符号化する新しいキネマティクス対応計量である。
代表的な応用, モーションインペイント, 2D-to-3Dリフト実験では, ProjFlowがゼロショットベースラインよりも正確な制約満足度と一致し, 現実性を向上することを示した。
論文 参考訳(メタデータ) (2026-02-26T08:29:25Z) - Formalizing the Sampling Design Space of Diffusion-Based Generative Models via Adaptive Solvers and Wasserstein-Bounded Timesteps [4.397130429878499]
拡散に基づく生成モデルは、様々な領域で顕著な性能を達成してきたが、その実践的展開は、しばしば高いサンプリングコストによって制限されている。
本稿では,数値解法を拡散軌道の固有特性と整合する原理的枠組みであるSDMを提案する。
ODE のダイナミクスを解析することにより,低次解法は初期高雑音で十分であり,高次解法は後段の非線形性の増加に対応するために段階的に展開可能であることを示す。
論文 参考訳(メタデータ) (2026-02-13T05:02:07Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z) - MeshfreeFlowNet: A Physics-Constrained Deep Continuous Space-Time
Super-Resolution Framework [58.49761896587656]
MeshfreeFlowNetは、低解像度入力から連続(グリッドフリー)80%ソリューションを生成するフレームワークである。
MeshfreeFlowNetは、(i)出力をすべての解像度でサンプリングし、(ii)任意のサイズの時間ドメイン上の固定サイズの入力をトレーニングすることを可能にする。
本稿では,MeshfreeFlowNetの大規模実装を提案する。
論文 参考訳(メタデータ) (2020-05-01T05:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。