論文の概要: Diff2Flow: Training Flow Matching Models via Diffusion Model Alignment
- arxiv url: http://arxiv.org/abs/2506.02221v1
- Date: Mon, 02 Jun 2025 20:05:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.370643
- Title: Diff2Flow: Training Flow Matching Models via Diffusion Model Alignment
- Title(参考訳): Diff2Flow:拡散モデルアライメントによるフローマッチングモデルのトレーニング
- Authors: Johannes Schusterbauer, Ming Gui, Frank Fundel, Björn Ommer,
- Abstract要約: 拡散モデルは高忠実度出力によって生成タスクに革命をもたらしたが、フローマッチング(FM)はより高速な推論と経験的な性能向上を提供する。
この研究は、事前学習された拡散モデルからフローマッチングへの知識の伝達を効率的に行うという重要な課題に対処する。
本稿では,拡散とFMパラダイムを体系的にブリッジする新しいフレームワークであるDiff2Flowを提案し,時間ステップを再スケーリングし,補間を整列させ,拡散予測からFM互換速度場を導出する。
- 参考スコア(独自算出の注目度): 22.661660797545164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have revolutionized generative tasks through high-fidelity outputs, yet flow matching (FM) offers faster inference and empirical performance gains. However, current foundation FM models are computationally prohibitive for finetuning, while diffusion models like Stable Diffusion benefit from efficient architectures and ecosystem support. This work addresses the critical challenge of efficiently transferring knowledge from pre-trained diffusion models to flow matching. We propose Diff2Flow, a novel framework that systematically bridges diffusion and FM paradigms by rescaling timesteps, aligning interpolants, and deriving FM-compatible velocity fields from diffusion predictions. This alignment enables direct and efficient FM finetuning of diffusion priors with no extra computation overhead. Our experiments demonstrate that Diff2Flow outperforms na\"ive FM and diffusion finetuning particularly under parameter-efficient constraints, while achieving superior or competitive performance across diverse downstream tasks compared to state-of-the-art methods. We will release our code at https://github.com/CompVis/diff2flow.
- Abstract(参考訳): 拡散モデルは高忠実度出力によって生成タスクに革命をもたらしたが、フローマッチング(FM)はより高速な推論と経験的な性能向上を提供する。
しかし、現在の基礎FMモデルは微調整には計算的に禁止されており、安定拡散のような拡散モデルは効率的なアーキテクチャとエコシステムのサポートから恩恵を受ける。
この研究は、事前学習された拡散モデルからフローマッチングへの知識の伝達を効率的に行うという重要な課題に対処する。
本稿では,拡散とFMパラダイムを体系的にブリッジする新しいフレームワークであるDiff2Flowを提案し,時間ステップを再スケーリングし,補間を整列させ,拡散予測からFM互換速度場を導出する。
このアライメントにより、余分な計算オーバーヘッドを伴わない直接的かつ効率的な拡散前のFM微調整が可能となる。
実験の結果,Diff2Flowはパラメータ効率の制約下で,特にパラメトリックFMや拡散微細化に優れ,また,最先端の手法と比較して,下流の様々なタスクにおいて優れた,あるいは競争的な性能を実現していることがわかった。
コードをhttps://github.com/CompVis/diff2flow.comでリリースします。
関連論文リスト
- Local Flow Matching Generative Models [19.859984725284896]
局所フローマッチング(Local Flow Matching)は、フローベース生成モデルに基づく密度推定のための計算フレームワークである。
$textttLFM$はシミュレーション不要のスキームを採用し、フローマッチングサブモデルのシーケンスを漸進的に学習する。
FMと比較して, $textttLFM$ のトレーニング効率と競争的生成性能の改善を実証した。
論文 参考訳(メタデータ) (2024-10-03T14:53:10Z) - Diffusion Tuning: Transferring Diffusion Models via Chain of Forgetting [41.75432332679519]
Diff-Tuningは、忘れる傾向の連鎖を利用する、フラストレーション的にシンプルな転送手法である。
D Diff-Tuningは標準的な微調整よりも26%改善され、ControlNetの収束速度が24%向上した。
論文 参考訳(メタデータ) (2024-06-02T15:20:59Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。