論文の概要: Faster Inference of Flow-Based Generative Models via Improved Data-Noise Coupling
- arxiv url: http://arxiv.org/abs/2603.15279v1
- Date: Mon, 16 Mar 2026 13:42:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.391955
- Title: Faster Inference of Flow-Based Generative Models via Improved Data-Noise Coupling
- Title(参考訳): 改良されたデータノイズ結合によるフローベース生成モデルの高速推論
- Authors: Aram Davtyan, Leello Tadesse Dadi, Volkan Cevher, Paolo Favaro,
- Abstract要約: 条件付きフローマッチング(CFM)は、連続正規化フローをトレーニングするためのシミュレーション不要な手法である。
LOOM-CFMは、トレーニング時間内にミニバッチ間でこれらの割り当てを保存し、最適化することにより、ミニバッチ最適輸送(OT)の範囲を拡大する新しい手法である。
提案手法は,複数のデータセット間の速度品質トレードオフのサンプリングにおける一貫した改善を示す。
- 参考スコア(独自算出の注目度): 69.7108839028336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conditional Flow Matching (CFM), a simulation-free method for training continuous normalizing flows, provides an efficient alternative to diffusion models for key tasks like image and video generation. The performance of CFM in solving these tasks depends on the way data is coupled with noise. A recent approach uses minibatch optimal transport (OT) to reassign noise-data pairs in each training step to streamline sampling trajectories and thus accelerate inference. However, its optimization is restricted to individual minibatches, limiting its effectiveness on large datasets. To address this shortcoming, we introduce LOOM-CFM (Looking Out Of Minibatch-CFM), a novel method to extend the scope of minibatch OT by preserving and optimizing these assignments across minibatches over training time. Our approach demonstrates consistent improvements in the sampling speed-quality trade-off across multiple datasets. LOOM-CFM also enhances distillation initialization and supports high-resolution synthesis in latent space training.
- Abstract(参考訳): 条件付きフローマッチング(CFM)は、連続正規化フローをトレーニングするためのシミュレーション不要な手法であり、画像やビデオ生成といった重要なタスクに対する拡散モデルの効率的な代替手段を提供する。
これらのタスクを解く際のCFMの性能は、データがノイズと結合する方法に依存する。
最近のアプローチでは、各トレーニングステップでノイズデータペアを再割り当てするためにミニバッチ最適輸送(OT)を使用して、サンプリング軌跡を合理化し、推論を加速する。
しかし、その最適化は個々のミニバッチに限定されており、大きなデータセットでの有効性を制限している。
LOOM-CFM (Looking Out Out Of Minibatch-CFM) は,ミニバッチをトレーニング時間にまたがってこれらの割り当てを保存し,最適化することにより,ミニバッチOTの範囲を拡大する新しい手法である。
提案手法は,複数のデータセット間の速度品質トレードオフのサンプリングにおける一貫した改善を示す。
LOOM-CFMはまた蒸留初期化を促進し、潜在宇宙訓練における高分解能合成をサポートする。
関連論文リスト
- Path-Guided Flow Matching for Dataset Distillation [9.761850986508895]
本稿では, 数ステップでODEを解くことで, 高速な決定論的合成を可能にする, 生成蒸留のための最初のフローマッチングに基づくフレームワークを提案する。
本研究では, ODE-consistent path control のための連続経路-プロトタイプ誘導アルゴリズムを開発し, トラジェクトリが割り当てられたプロトタイプに確実に着地できるようにする。
論文 参考訳(メタデータ) (2026-02-05T12:52:32Z) - AlignFlow: Improving Flow-based Generative Models with Semi-Discrete Optimal Transport [32.58223362864546]
フローベース生成モデル(FGM)はノイズを複雑なデータ分布に変換する。
既存のOTベースの手法では、サンプルノイズとデータポイントの(ミニ)バッチを用いてOTプランを推定する。
本稿では、雑音分布とデータ点との明示的最適アライメントを確立することにより、FGMのトレーニングを強化する新しいアプローチであるAlignFlowを紹介する。
論文 参考訳(メタデータ) (2025-10-16T18:00:43Z) - Taming Flow Matching with Unbalanced Optimal Transport into Fast Pansharpening [10.23957420290553]
本稿では,一段階の高品位パンシャーピングを実現するための最適輸送フローマッチングフレームワークを提案する。
OTFMフレームワークは、パンシャーピング制約の厳格な遵守を維持しつつ、シミュレーション不要なトレーニングとシングルステップ推論を可能にする。
論文 参考訳(メタデータ) (2025-03-19T08:10:49Z) - Local Flow Matching Generative Models [19.859984725284896]
フローマッチング(英: Flow Matching, FM)は、2つの分布を補間する連続的かつ非可逆的な流れを学習するためのシミュレーション不要な手法である。
FMサブモデルのシーケンスを連続的に学習するLFM(Local Flow Matching)と呼ばれるステップワイズFMモデルを提案する。
FMと比較して, LFMの訓練効率と競争的生成性能の改善を実証的に実証した。
論文 参考訳(メタデータ) (2024-10-03T14:53:10Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。