論文の概要: Bi-Anchor Interpolation Solver for Accelerating Generative Modeling
- arxiv url: http://arxiv.org/abs/2601.21542v2
- Date: Fri, 30 Jan 2026 11:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 14:22:45.323429
- Title: Bi-Anchor Interpolation Solver for Accelerating Generative Modeling
- Title(参考訳): 生成モデル高速化のためのバイアンカー補間解法
- Authors: Hongxu Chen, Hongxiang Li, Zhen Wang, Long Chen,
- Abstract要約: フローマッチング(FM)モデルは高忠実度合成の主要なパラダイムとして登場してきた。
トレーニング不要の問題解決者は、低次神経機能評価において、大幅なパフォーマンス劣化に悩まされる。
バイアンカー補間解法(BA-solver)を提案する。
BAソルバは、トレーニング不要の標準ソルバの汎用性を保ちながら、大幅な加速を実現している。
- 参考スコア(独自算出の注目度): 23.42712280535309
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow Matching (FM) models have emerged as a leading paradigm for high-fidelity synthesis. However, their reliance on iterative Ordinary Differential Equation (ODE) solving creates a significant latency bottleneck. Existing solutions face a dichotomy: training-free solvers suffer from significant performance degradation at low Neural Function Evaluations (NFEs), while training-based one- or few-steps generation methods incur prohibitive training costs and lack plug-and-play versatility. To bridge this gap, we propose the Bi-Anchor Interpolation Solver (BA-solver). BA-solver retains the versatility of standard training-free solvers while achieving significant acceleration by introducing a lightweight SideNet (1-2% backbone size) alongside the frozen backbone. Specifically, our method is founded on two synergistic components: \textbf{1) Bidirectional Temporal Perception}, where the SideNet learns to approximate both future and historical velocities without retraining the heavy backbone; and 2) Bi-Anchor Velocity Integration, which utilizes the SideNet with two anchor velocities to efficiently approximate intermediate velocities for batched high-order integration. By utilizing the backbone to establish high-precision ``anchors'' and the SideNet to densify the trajectory, BA-solver enables large interval sizes with minimized error. Empirical results on ImageNet-256^2 demonstrate that BA-solver achieves generation quality comparable to 100+ NFEs Euler solver in just 10 NFEs and maintains high fidelity in as few as 5 NFEs, incurring negligible training costs. Furthermore, BA-solver ensures seamless integration with existing generative pipelines, facilitating downstream tasks such as image editing.
- Abstract(参考訳): フローマッチング(FM)モデルは高忠実度合成の主要なパラダイムとして登場してきた。
しかし、その反復正規微分方程式(ODE)解決への依存は、重大な遅延ボトルネックを生み出します。
既存のソリューションでは、トレーニング不要のソルバが低神経機能評価(NFE)で大幅なパフォーマンス低下に悩まされる一方、トレーニングベースのワンステップまたは数ステップの生成方法は、禁止的なトレーニングコストを発生させ、プラグアンドプレイの汎用性を欠いている。
このギャップを埋めるために,バイアンカー補間ソルバー (BA-solver) を提案する。
BAソルバは、凍結したバックボーンと共に軽量のSideNet(1-2%のバックボーンサイズ)を導入し、トレーニング不要の標準ソルバの汎用性を保ちながら、大幅な加速を実現している。
特に,本手法は,2つの相乗的成分上に構築されている: 双方向時間知覚(bidirectional Temporal Perception})。
2) 2つのアンカー速度を持つSideNetを用いて,バッチ化された高次積分の中間速度を効率的に近似するバイアンカー速度積分法を提案する。
バックボーンを利用して精度の高い ``anchors' と SideNet を確立し、軌道を密度化することで、BA-solver はエラーを最小限に抑えながら大きな間隔サイズを実現する。
ImageNet-256^2の実証結果は、BA-solverが100以上のNFEに匹敵する生成品質を10 NFEで達成し、5 NFEで高い忠実性を保ち、無視できるトレーニングコストを発生させることを示した。
さらに、BA-solverは既存の生成パイプラインとのシームレスな統合を保証し、画像編集などの下流タスクを容易にします。
関連論文リスト
- Parallel Diffusion Solver via Residual Dirichlet Policy Optimization [88.7827307535107]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低次元の予算で画像品質が著しく低下することが多い。
本研究では,各ステップに複数の勾配並列評価を組み込んだ新しいODE解法であるEnsemble Parallel Directionsolvr(EPD-EPr)を提案する。
論文 参考訳(メタデータ) (2025-12-28T05:48:55Z) - TwinFlow: Realizing One-step Generation on Large Models with Self-adversarial Flows [25.487712175353035]
1ステップ生成モデルをトレーニングするフレームワークであるTwinFlowを提案する。
本手法は,テキスト・ツー・イメージタスクにおいて1-NFEで0.83のGenEvalスコアを得る。
提案手法は,GenEval および DPG-Bench ベンチマーク上でのオリジナルの 100-NFE モデルの性能と一致する。
論文 参考訳(メタデータ) (2025-12-03T07:45:46Z) - MeanFlow Transformers with Representation Autoencoders [71.45823902973349]
MeanFlow(MF)は、ノイズからデータへのジャンプを直接学習することで、効率的な数ステップ生成を可能にする拡散動機付き生成モデルである。
我々は、表現オートエンコーダ(RAE)の潜在空間におけるMFの効率的なトレーニングとサンプリング手法を開発する。
1ステップのFIDが2.03であり,バニラMFの3.43を上回っ,GFLOPSのサンプリングを38%削減し,ImageNet 256のトレーニングコストを83%削減した。
論文 参考訳(メタデータ) (2025-11-17T06:17:08Z) - FNODE: Flow-Matching for data-driven simulation of constrained multibody systems [4.734933620065242]
Flow-Matching Neural Ordinary Differential Equation (FNODE)は、軌道データから直接加速ベクトル場を学習するフレームワークである。
FNODEは、従来のNeural ODEのボトルネックを表すODEソルバによるバックプロパゲーションの必要性を排除する。
我々はFNODEを,単発・三発のマススプリングダンパシステム,ダブル振り子,スライダークランク,カートポールなど,多種多様なベンチマークで評価した。
論文 参考訳(メタデータ) (2025-08-29T18:31:11Z) - Fast T2T: Optimization Consistency Speeds Up Diffusion-Based Training-to-Testing Solving for Combinatorial Optimization [83.65278205301576]
雑音レベルから与えられたインスタンスの最適解への直接写像を学習し、最小限のショットで高品質な生成を容易にすることを提案する。
これは、サンプル間の差を最小限に抑える最適化一貫性トレーニングプロトコルによって達成される。
The Traveling Salesman Problem (TSP) と Maximal Independent Set (MIS) は、ソリューションの品質と効率の両方に関して、Fast T2Tの優位性を実証している。
論文 参考訳(メタデータ) (2025-02-05T07:13:43Z) - An Efficient Diffusion-based Non-Autoregressive Solver for Traveling Salesman Problem [21.948190231334088]
本稿では,トラベリングセールスマン問題に適した効率の良い反復型拡散モデルであるDEITSPを提案する。
本稿では,制御された離散雑音付加プロセスと自己整合性強化を統合した一段階拡散モデルを提案する。
また、ノードとエッジのモダリティから特徴の抽出と融合を促進するために、デュアルモダリティグラフ変換器を設計する。
論文 参考訳(メタデータ) (2025-01-23T15:47:04Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Training Latency Minimization for Model-Splitting Allowed Federated Edge
Learning [16.8717239856441]
我々は,深層ニューラルネットワーク(DNN)の訓練において,クライアントが直面する計算能力の不足を軽減するためのモデル分割許容FL(SFL)フレームワークを提案する。
同期したグローバルアップデート設定では、グローバルトレーニングを完了するためのレイテンシは、クライアントがローカルトレーニングセッションを完了するための最大レイテンシによって決定される。
この混合整数非線形計画問題の解法として,AIモデルのカット層と他のパラメータの量的関係に適合する回帰法を提案し,TLMPを連続的な問題に変換する。
論文 参考訳(メタデータ) (2023-07-21T12:26:42Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。