論文の概要: Align Your Flow: Scaling Continuous-Time Flow Map Distillation
- arxiv url: http://arxiv.org/abs/2506.14603v1
- Date: Tue, 17 Jun 2025 15:06:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.535372
- Title: Align Your Flow: Scaling Continuous-Time Flow Map Distillation
- Title(参考訳): フローの調整: 連続時間フローマップの蒸留のスケーリング
- Authors: Amirmojtaba Sabour, Sanja Fidler, Karsten Kreis,
- Abstract要約: フローマップは、任意の2つのノイズレベルを1ステップで接続し、すべてのステップカウントで有効に保ちます。
画像生成ベンチマークにおいて、Align Your Flowと呼ばれるフローマップモデルを広範囲に検証する。
テキスト条件付き合成において、既存の非横断的訓練された数ステップのサンプルよりも優れたテキスト間フローマップモデルを示す。
- 参考スコア(独自算出の注目度): 63.927438959502226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion- and flow-based models have emerged as state-of-the-art generative modeling approaches, but they require many sampling steps. Consistency models can distill these models into efficient one-step generators; however, unlike flow- and diffusion-based methods, their performance inevitably degrades when increasing the number of steps, which we show both analytically and empirically. Flow maps generalize these approaches by connecting any two noise levels in a single step and remain effective across all step counts. In this paper, we introduce two new continuous-time objectives for training flow maps, along with additional novel training techniques, generalizing existing consistency and flow matching objectives. We further demonstrate that autoguidance can improve performance, using a low-quality model for guidance during distillation, and an additional boost can be achieved by adversarial finetuning, with minimal loss in sample diversity. We extensively validate our flow map models, called Align Your Flow, on challenging image generation benchmarks and achieve state-of-the-art few-step generation performance on both ImageNet 64x64 and 512x512, using small and efficient neural networks. Finally, we show text-to-image flow map models that outperform all existing non-adversarially trained few-step samplers in text-conditioned synthesis.
- Abstract(参考訳): 拡散モデルとフローベースモデルは最先端のジェネレーティブモデリングアプローチとして登場したが、多くのサンプリングステップが必要である。
整合性モデルはこれらのモデルを効率的な1ステップ生成器に蒸留することができるが、流れや拡散に基づく手法とは異なり、ステップ数を増やすと必然的に性能が低下し、解析的にも経験的にも示すことができる。
フローマップは、任意の2つのノイズレベルを1ステップで接続することでこれらのアプローチを一般化し、全てのステップ数で有効に保つ。
本稿では,フローマップをトレーニングするための新たな2つの目標と,既存の一貫性とフローマッチングの目的を一般化する新たなトレーニング手法を紹介する。
さらに, 蒸留時の誘導に低品質モデルを用いることで, 自己誘導が性能を向上させることを実証し, サンプルの多様性を最小限に抑えながら, 対向的な微調整によりさらなる向上が達成できることを示した。
私たちは、Align Your Flowと呼ばれるフローマップモデルを、画像生成ベンチマークに挑戦し、小型で効率的なニューラルネットワークを使用して、ImageNet 64x64と512x512の両方で最先端の数ステップ生成性能を達成するために、広範囲に検証しています。
最後に、テキスト条件付き合成において、既存の非横断的に訓練された数ステップのサンプルよりも優れたテキスト間フローマップモデルを示す。
関連論文リスト
- How to build a consistency model: Learning flow maps via self-distillation [15.520853806024943]
本稿では,フローと拡散モデルに関連するフローマップを学習するための体系的なアプローチを提案する。
本研究では,連続時間流の速度場と流れ図の瞬時変化率の関係を生かした。
本稿では,既存の蒸留方式を自己蒸留による直接訓練アルゴリズムに変換する方法について述べる。
論文 参考訳(メタデータ) (2025-05-24T18:50:50Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - ARFlow: Autoregressive Flow with Hybrid Linear Attention [48.707933347079894]
フローモデルは、徐々に現実的なイメージを生成するのに効果的である。
彼らは、生成プロセス中に長距離依存関係をキャプチャするのに苦労します。
本稿では,自動回帰モデリングをフローモデルに統合することを提案する。
論文 参考訳(メタデータ) (2025-01-27T14:33:27Z) - FlowTurbo: Towards Real-time Flow-Based Image Generation with Velocity Refiner [70.90505084288057]
フローベースモデルはサンプリングプロセス中により直線的なサンプリング軌道を生成する傾向にある。
擬似修正器やサンプル認識コンパイルなどいくつかの手法を導入し,推論時間をさらに短縮する。
FlowTurboはImageNet上で100(ms/img)で2.12FID、38(ms/img)で3.93FIDに達する
論文 参考訳(メタデータ) (2024-09-26T17:59:51Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。