論文の概要: SoFlow: Solution Flow Models for One-Step Generative Modeling
- arxiv url: http://arxiv.org/abs/2512.15657v1
- Date: Wed, 17 Dec 2025 18:10:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.095108
- Title: SoFlow: Solution Flow Models for One-Step Generative Modeling
- Title(参考訳): SoFlow: 一段階生成モデリングのためのソリューションフローモデル
- Authors: Tianze Luo, Haotian Yuan, Zhuang Liu,
- Abstract要約: Flow Models (SoFlow)は、一段階生成をスクラッチから行うためのフレームワークである。
フローマッチングの損失により、トレーニング中に推定速度場を提供できる。
我々のモデルは、ImageNet 256x256データセット上のMeanFlowモデルよりも優れたFID-50Kスコアを達成する。
- 参考スコア(独自算出の注目度): 10.054000663262618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The multi-step denoising process in diffusion and Flow Matching models causes major efficiency issues, which motivates research on few-step generation. We present Solution Flow Models (SoFlow), a framework for one-step generation from scratch. By analyzing the relationship between the velocity function and the solution function of the velocity ordinary differential equation (ODE), we propose a Flow Matching loss and a solution consistency loss to train our models. The Flow Matching loss allows our models to provide estimated velocity fields for Classifier-Free Guidance (CFG) during training, which improves generation performance. Notably, our consistency loss does not require the calculation of the Jacobian-vector product (JVP), a common requirement in recent works that is not well-optimized in deep learning frameworks like PyTorch. Experimental results indicate that, when trained from scratch using the same Diffusion Transformer (DiT) architecture and an equal number of training epochs, our models achieve better FID-50K scores than MeanFlow models on the ImageNet 256x256 dataset.
- Abstract(参考訳): 拡散およびフローマッチングモデルにおける多段階の分極過程は、数ステップ生成の研究を動機付ける大きな効率問題を引き起こす。
スクラッチから一段階生成するためのフレームワークであるSoFlow(So Flow)を提案する。
本研究では,速度常微分方程式(ODE)の速度関数と解関数の関係を解析することにより,フローマッチング損失と解整合損失を提案し,モデルの学習を行う。
フローマッチングの損失により、トレーニング中のCFG(Classifier-Free Guidance)に対する推定速度場が提供され、生成性能が向上する。
特に、我々の一貫性の喪失は、PyTorchのようなディープラーニングフレームワークでは最適化されていない最近の研究で一般的な要件であるJacobian-vector Product (JVP)の計算を必要としない。
実験の結果,同じDiffusion Transformer(DiT)アーキテクチャと同じ数のトレーニングエポックを用いてゼロからトレーニングすると,ImageNet 256x256データセット上のMeanFlowモデルよりも優れたFID-50Kスコアが得られることがわかった。
関連論文リスト
- TwinFlow: Realizing One-step Generation on Large Models with Self-adversarial Flows [25.487712175353035]
1ステップ生成モデルをトレーニングするフレームワークであるTwinFlowを提案する。
本手法は,テキスト・ツー・イメージタスクにおいて1-NFEで0.83のGenEvalスコアを得る。
提案手法は,GenEval および DPG-Bench ベンチマーク上でのオリジナルの 100-NFE モデルの性能と一致する。
論文 参考訳(メタデータ) (2025-12-03T07:45:46Z) - Decoupled MeanFlow: Turning Flow Models into Flow Maps for Accelerated Sampling [68.76215229126886]
Decoupled MeanFlowは、フローモデルをアーキテクチャ変更なしにフローマップモデルに変換するシンプルなデコード戦略である。
提案手法では, 拡散変圧器の最終ブロックを後続の時間ステップに設定し, 事前学習した流れモデルを直接フローマップとして再利用する。
ImageNet 256x256 と 512x512 では、われわれのモデルはそれぞれ2.16 と2.12 の1ステップ FID に達し、先行技術よりも大きなマージンで上回っている。
論文 参考訳(メタデータ) (2025-10-28T14:43:48Z) - GLASS Flows: Transition Sampling for Alignment of Flow and Diffusion Models [42.15046750300825]
GLASS Flowsは「フローマッチングモデル」をシミュレートしてマルコフ遷移をサンプリングする新しいサンプリングパラダイムである。
大規模テキスト・画像モデルでは,GLASSフローが進化と効率のトレードオフをなくすことが示されている。
論文 参考訳(メタデータ) (2025-09-29T17:58:36Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。