論文の概要: How to build a consistency model: Learning flow maps via self-distillation
- arxiv url: http://arxiv.org/abs/2505.18825v1
- Date: Sat, 24 May 2025 18:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.683203
- Title: How to build a consistency model: Learning flow maps via self-distillation
- Title(参考訳): 一貫性モデルの構築方法:自己蒸留によるフローマップの学習
- Authors: Nicholas M. Boffi, Michael S. Albergo, Eric Vanden-Eijnden,
- Abstract要約: 本稿では,フローと拡散モデルに関連するフローマップを学習するための体系的なアプローチを提案する。
本研究では,連続時間流の速度場と流れ図の瞬時変化率の関係を生かした。
本稿では,既存の蒸留方式を自己蒸留による直接訓練アルゴリズムに変換する方法について述べる。
- 参考スコア(独自算出の注目度): 15.520853806024943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building on the framework proposed in Boffi et al. (2024), we present a systematic approach for learning flow maps associated with flow and diffusion models. Flow map-based models, commonly known as consistency models, encompass recent efforts to improve the efficiency of generative models based on solutions to differential equations. By exploiting a relationship between the velocity field underlying a continuous-time flow and the instantaneous rate of change of the flow map, we show how to convert existing distillation schemes into direct training algorithms via self-distillation, eliminating the need for pre-trained models. We empirically evaluate several instantiations of our framework, finding that high-dimensional tasks like image synthesis benefit from objective functions that avoid temporal and spatial derivatives of the flow map, while lower-dimensional tasks can benefit from objectives incorporating higher-order derivatives to capture sharp features.
- Abstract(参考訳): Boffi et al (2024) で提案されたフレームワークに基づいて,フローおよび拡散モデルに関連するフローマップを学習するための体系的なアプローチを提案する。
フローマップベースのモデル(一般に一貫性モデルとして知られる)は、微分方程式の解に基づく生成モデルの効率を改善するための最近の取り組みを含んでいる。
連続時間流の下の速度場とフローマップの即時変化率の関係を利用して, 既存の蒸留スキームを自己蒸留による直接訓練アルゴリズムに変換する方法を示し, 事前学習モデルの必要性を排除した。
本研究では,フローマップの時間的・空間的デリバティブを回避する目的関数から画像合成などの高次元タスクが恩恵を受けるのに対し,低次元タスクは高次デリバティブを取り入れて鋭い特徴を捉えた目的関数から恩恵を受けることを実証的に評価する。
関連論文リスト
- Elucidating Flow Matching ODE Dynamics with Respect to Data Geometries [10.947094609205765]
拡散に基づく生成モデルが画像生成の標準となり, 学習ベクトル場によるサンプリングステップの削減により, 拡散モデルと比較して, ODEベースのサンプリングモデルとフローマッチングモデルにより効率が向上した。
我々は,ODE力学を駆動するデノイザを中心に,サンプル軌道の包括的解析を通じて,フローマッチングモデルの理論を推し進める。
解析により,グローバルなデータ特徴から局所構造への軌道の進化が明らかとなり,フローマッチングモデルにおけるサンプルごとの挙動の幾何学的特徴が得られた。
論文 参考訳(メタデータ) (2024-12-25T01:17:15Z) - Flow Map Matching [15.520853806024943]
フローマップマッチングは、基礎となる常微分方程式の2時間フローマップを学習するアルゴリズムである。
フローマップマッチングは, 拡散法や補間法と比較して, サンプリングコストを大幅に削減した高品質なサンプルとなることを示す。
論文 参考訳(メタデータ) (2024-06-11T17:41:26Z) - FlowIE: Efficient Image Enhancement via Rectified Flow [71.6345505427213]
FlowIEはフローベースのフレームワークであり、基本的な分布から高品質な画像への直線パスを推定する。
私たちのコントリビューションは、合成および実世界のデータセットに関する包括的な実験を通じて、厳密に検証されています。
論文 参考訳(メタデータ) (2024-06-01T17:29:29Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - DistractFlow: Improving Optical Flow Estimation via Realistic
Distractions and Pseudo-Labeling [49.46842536813477]
本稿では,光フロー推定モデルのトレーニングのための新しいデータ拡張手法であるDistractFlowを提案する。
2つのフレームのうちの1つを、類似したドメインを描写したイントラクタイメージと組み合わせることで、自然の物体やシーンと相反する視覚的摂動を誘発することができる。
私たちのアプローチでは、追加のアノテーションを必要とせずに、利用可能なトレーニングペアの数を大幅に増やすことができます。
論文 参考訳(メタデータ) (2023-03-24T15:42:54Z) - Generative Flows with Invertible Attentions [135.23766216657745]
生成フローモデルに対する2種類の非可逆的注意機構を導入する。
フロー特徴写像の2分割毎に注意重みと入力表現を学習するために,分割に基づく注意機構を利用する。
提案手法は, トラクタブルジャコビアン行列を用いた非可逆アテンションモジュールをフローベースモデルの任意の位置にシームレスに統合する。
論文 参考訳(メタデータ) (2021-06-07T20:43:04Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。