論文の概要: Adversarial Flow Models
- arxiv url: http://arxiv.org/abs/2511.22475v1
- Date: Thu, 27 Nov 2025 14:04:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.595831
- Title: Adversarial Flow Models
- Title(参考訳): 逆流モデル
- Authors: Shanchuan Lin, Ceyuan Yang, Zhijie Lin, Hao Chen, Haoqi Fan,
- Abstract要約: 本稿では,逆流モデルとフローモデルを統一する生成モデルのクラスである逆流モデルを提案する。
本手法は, ネイティブなワンステップ生成やマルチステップ生成をサポートし, 対角目標を用いて学習する。
56層モデルと112層モデルにおいて,中間的監督を伴わない深度反復によるエンドツーエンドトレーニングの可能性を示す。
- 参考スコア(独自算出の注目度): 26.917627135225118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present adversarial flow models, a class of generative models that unifies adversarial models and flow models. Our method supports native one-step or multi-step generation and is trained using the adversarial objective. Unlike traditional GANs, where the generator learns an arbitrary transport plan between the noise and the data distributions, our generator learns a deterministic noise-to-data mapping, which is the same optimal transport as in flow-matching models. This significantly stabilizes adversarial training. Also, unlike consistency-based methods, our model directly learns one-step or few-step generation without needing to learn the intermediate timesteps of the probability flow for propagation. This saves model capacity, reduces training iterations, and avoids error accumulation. Under the same 1NFE setting on ImageNet-256px, our B/2 model approaches the performance of consistency-based XL/2 models, while our XL/2 model creates a new best FID of 2.38. We additionally show the possibility of end-to-end training of 56-layer and 112-layer models through depth repetition without any intermediate supervision, and achieve FIDs of 2.08 and 1.94 using a single forward pass, surpassing their 2NFE and 4NFE counterparts.
- Abstract(参考訳): 本稿では,逆流モデルとフローモデルを統一する生成モデルのクラスである逆流モデルを提案する。
本手法は, ネイティブなワンステップ生成やマルチステップ生成をサポートし, 対角目標を用いて学習する。
従来のGANとは異なり、ジェネレータはノイズとデータ分布の間の任意の輸送計画を学ぶが、ジェネレータはフローマッチングモデルと同様の最適輸送である決定論的ノイズ-データマッピングを学習する。
これは敵の訓練を著しく安定させる。
また、一貫性に基づく手法とは異なり、確率フローの中間時間ステップを学習することなく、一段階または二段階の生成を直接学習する。
これにより、モデルのキャパシティを節約し、トレーニングのイテレーションを削減し、エラーの蓄積を避けることができる。
ImageNet-256pxの1NFE設定では、B/2モデルは一貫性に基づくXL/2モデルの性能に近づき、XL/2モデルは2.38の新しい最良のFIDを生成する。
さらに, 56層モデルと112層モデルにおいて, 中間監督なしでの深度反復によるエンドツーエンドトレーニングが可能であり, 2NFE と 4NFE を上回り, シングルフォワードパスを用いて 2.08 と 1.94 の FID を達成する可能性を示した。
関連論文リスト
- Score-based Idempotent Distillation of Diffusion Models [0.9367224590861915]
一等性生成ネットワーク(IGN)は、対象多様体への等等性写像に基づく新しい生成モデルである。
本研究では拡散モデルスコアから等等化モデルを蒸留することにより拡散とIGNを結合し、SIGNと呼ぶ。
提案手法は非常に安定しており, 対向的損失を伴わないため, 提案手法の理論的解析を行い, IGNを予め学習した拡散モデルから効果的に蒸留できることを実証的に示す。
論文 参考訳(メタデータ) (2025-09-25T19:36:10Z) - Flow-Anchored Consistency Models [32.04797599813587]
継続的一貫性モデル(CM)は効率的な数ステップ生成を約束するが、トレーニングの不安定さに直面する。
確率流を横断するショートカットのみを学習するようにネットワークを訓練することで、モデルがフローを定義する瞬間的な速度場を把握できなくなる。
本稿では,フローマッチングタスクをメインのCMショートカット目的のアンカーとして使用する,シンプルかつ効果的なトレーニング戦略であるフローアンコール一貫性モデル(FACM)を紹介する。
論文 参考訳(メタデータ) (2025-07-04T17:56:51Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - One-Step Diffusion Distillation through Score Implicit Matching [74.91234358410281]
本稿では,Score Implicit Matching (SIM) を用いて,事前学習した拡散モデルを単一ステップジェネレータモデルに蒸留する手法を提案する。
SIMはワンステップジェネレータに対して強い経験的性能を示す。
リードトランスに基づく拡散モデルにSIMを適用することにより,テキスト・ツー・イメージ生成のための単一ステップ生成器を蒸留する。
論文 参考訳(メタデータ) (2024-10-22T08:17:20Z) - Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - Adaptive Training Meets Progressive Scaling: Elevating Efficiency in Diffusion Models [52.1809084559048]
TDCトレーニングと呼ばれる新しい2段階分割型トレーニング戦略を提案する。
タスクの類似性と難易度に基づいてタイムステップをグループ化し、高度にカスタマイズされた復調モデルを各グループに割り当て、拡散モデルの性能を向上させる。
2段階のトレーニングでは、各モデルを個別にトレーニングする必要がなくなるが、総トレーニングコストは、単一の統合されたデノナイジングモデルをトレーニングするよりもさらに低い。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。