論文の概要: Gradual Fine-Tuning for Flow Matching Models
- arxiv url: http://arxiv.org/abs/2601.22495v1
- Date: Fri, 30 Jan 2026 03:07:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.185874
- Title: Gradual Fine-Tuning for Flow Matching Models
- Title(参考訳): フローマッチングモデルのための経時的微調整
- Authors: Gudrun Thorkelsdottir, Arindam Banerjee,
- Abstract要約: Gradual Fine-Tuning (GFT) は、フローベース生成モデルを微調整するための原則的なフレームワークである。
流れについて、GFTは、事前訓練されたドリフトと目標ドリフトの間を円滑に介在する中間目標の温度制御配列を定義している。
GFTは収束安定性を改善し、確率パスを短縮し、推論を高速化し、標準の微調整に匹敵する生成品質を維持する。
- 参考スコア(独自算出の注目度): 5.549222664526887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-tuning flow matching models is a central challenge in settings with limited data, evolving distributions, or strict efficiency demands, where unconstrained fine-tuning can erode the accuracy and efficiency gains learned during pretraining. Prior work has produced theoretical guarantees and empirical advances for reward-based fine-tuning formulations, but these methods often impose restrictions on permissible drift structure or training techniques. In this work, we propose Gradual Fine-Tuning (GFT), a principled framework for fine-tuning flow-based generative models when samples from the target distribution are available. For stochastic flows, GFT defines a temperature-controlled sequence of intermediate objectives that smoothly interpolate between the pretrained and target drifts, approaching the true target as the temperature approaches zero. We prove convergence results for both marginal and conditional GFT objectives, enabling the use of suitable (e.g., optimal transport) couplings during GFT while preserving correctness. Empirically, GFT improves convergence stability and shortens probability paths, resulting in faster inference, while maintaining generation quality comparable to standard fine-tuning. Our results position GFT as a theoretically grounded and practically effective alternative for scalable adaptation of flow matching models under distribution shift.
- Abstract(参考訳): 微調整フローマッチングモデルは、データ制限や分散の進化、厳密な効率要求といった設定において中心的な課題である。
これまでの研究は、報酬に基づく微調整の定式化に関する理論的な保証と実証的な進歩を生み出してきたが、これらの手法はしばしば許容可能なドリフト構造や訓練技術に制限を課している。
本研究では,目標分布からのサンプルが利用可能である場合に,フローベース生成モデルを微調整するための基本フレームワークであるGradual Fine-Tuning (GFT)を提案する。
確率的流れに対して、GFTは、温度が0に近づくにつれて真の目標に近づくように、事前訓練されたドリフトと目標ドリフトの間を円滑に介在する中間目標の温度制御配列を定義する。
本研究は, GFT と条件付き GFT の両目的に対して収束結果を証明し, 正当性を維持しつつ, GFT において適切な (例えば, 最適な輸送) 結合を使用できることを示した。
経験的に、GFTは収束安定性を改善し、確率パスを短縮し、推論を高速化し、標準の微調整に匹敵する生成品質を維持する。
この結果から,GFTは分散シフト下でのフローマッチングモデルのスケーラブルな適応に理論的に基礎を置き,実用的な代替手段として位置づけた。
関連論文リスト
- Improving Classifier-Free Guidance of Flow Matching via Manifold Projection [3.6087998976768128]
最適化のレンズによるCFGの原理的解釈を提供する。
CFGサンプリングを多様体制約によるホモトピー最適化として再構成する。
提案手法は, トレーニング不要かつ一貫した生成忠実度, 迅速なアライメント, ガイダンス尺度に対するロバスト性である。
論文 参考訳(メタデータ) (2026-01-29T15:49:31Z) - Rectified-CFG++ for Flow Based Models [26.896426878221718]
本稿では,修正フローの決定論的効率を幾何学的条件付きルールと組み合わせた適応型予測器・補正器ガイダンスであるRectified-C++を提案する。
大規模なテキスト・ツー・イメージモデル(Flux, Stable Diffusion 3/3.5, Lumina)の実験では、Rectified-C++がベンチマークデータセットの標準CFGを一貫して上回っていることが示されている。
論文 参考訳(メタデータ) (2025-10-09T00:00:47Z) - Weighted Conditional Flow Matching [26.88652399504886]
条件付きフローマッチング(CFM)は、連続正規化フローをトレーニングするための強力なフレームワークとして登場した。
本稿では,Gibsカーネルで各トレーニングペアを$(x, y)$に重み付けすることで,古典的CFM損失を補正する手法として,重み付き条件付きフローマッチング(W-CFM)を提案する。
論文 参考訳(メタデータ) (2025-07-29T22:42:51Z) - Aligning Latent Spaces with Flow Priors [72.24305287508474]
本稿では,学習可能な潜在空間を任意の目標分布に整合させるための新しいフレームワークを提案する。
特に,提案手法は計算コストの高い確率評価を排除し,最適化時のODE解決を回避する。
論文 参考訳(メタデータ) (2025-06-05T16:59:53Z) - Solving Inverse Problems with FLAIR [68.87167940623318]
本稿では,フローベース生成モデルを逆問題に先立って活用する学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - Flow Matching Posterior Sampling: A Training-free Conditional Generation for Flow Matching [13.634043135217254]
本稿では,Flow Matching を用いた Posterior Smpling (FMPS) を提案し,その適用範囲を拡大する。
この補正項は、サロゲートスコア関数を組み込むように再構成することができる。
FMPSは既存の最先端手法に比べて優れた世代品質が得られることを示す。
論文 参考訳(メタデータ) (2024-11-12T08:14:39Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。