論文の概要: The Coupling Within: Flow Matching via Distilled Normalizing Flows
- arxiv url: http://arxiv.org/abs/2603.09014v1
- Date: Mon, 09 Mar 2026 23:07:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.891813
- Title: The Coupling Within: Flow Matching via Distilled Normalizing Flows
- Title(参考訳): 内部のカップリング:蒸留正規化流れによるフローマッチング
- Authors: David Berthelot, Tianrong Chen, Jiatao Gu, Marco Cuturi, Laurent Dinh, Bhavik Chandna, Michal Klein, Josh Susskind, Shuangfei Zhai,
- Abstract要約: フロートレーニングにおいて重要な要素は、ノイズ/データペアをサンプリングする結合尺度の選択である。
そこで本研究では,NFモデルの準決定論的結合を蒸留し,学生のフローモデルを学習するための正規化フローマッチングを提案する。
- 参考スコア(独自算出の注目度): 45.3372883861006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow models have rapidly become the go-to method for training and deploying large-scale generators, owing their success to inference-time flexibility via adjustable integration steps. A crucial ingredient in flow training is the choice of coupling measure for sampling noise/data pairs that define the flow matching (FM) regression loss. While FM training defaults usually to independent coupling, recent works show that adaptive couplings informed by noise/data distributions (e.g., via optimal transport, OT) improve both model training and inference. We radicalize this insight by shifting the paradigm: rather than computing adaptive couplings directly, we use distilled couplings from a different, pretrained model capable of placing noise and data spaces in bijection -- a property intrinsic to normalizing flows (NF) through their maximum likelihood and invertibility requirements. Leveraging recent advances in NF image generation via auto-regressive (AR) blocks, we propose Normalized Flow Matching (NFM), a new method that distills the quasi-deterministic coupling of pretrained NF models to train student flow models. These students achieve the best of both worlds: significantly outperforming flow models trained with independent or even OT couplings, while also improving on the teacher AR-NF model.
- Abstract(参考訳): フローモデルは、調整可能な統合ステップによる推論時の柔軟性の成功から、大規模ジェネレータのトレーニングとデプロイの手段として急速に普及しています。
フロートレーニングにおいて重要な要素は、フローマッチング(FM)回帰損失を定義するノイズ/データペアをサンプリングする結合尺度の選択である。
FMトレーニングは、通常、独立した結合をデフォルトとするが、最近の研究は、ノイズ/データ分散(例えば、最適なトランスポート、OT)によって通知される適応的な結合が、モデルトレーニングと推論の両方を改善することを示している。
適応的な結合を直接計算するのではなく、雑音やデータ空間をビジェクションに配置できる、異なる事前訓練されたモデルから蒸留された結合を使います。
自動回帰(AR)ブロックによるNF画像生成の最近の進歩を生かして, 事前学習したNFモデルの準決定論的結合を蒸留し, 学生フローモデルを訓練する新しい手法である正規化フローマッチング(NFM)を提案する。
これらの学生は、教師のAR-NFモデルの改善とともに、独立系やOTカップリングでトレーニングされたフローモデルよりもはるかに優れています。
関連論文リスト
- Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z) - Flow Matching for Generative Modeling [44.66897082688762]
フローマッチングは、連続正規化フロー(CNF)のトレーニングのためのシミュレーション不要なアプローチである
拡散経路を持つFMを用いることで、より堅牢で安定した拡散モデルの代替となることが判明した。
ImageNet上でFlow Matchingを使用したCNFのトレーニングは、可能性とサンプル品質の両方の観点から最先端のパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2022-10-06T08:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。