論文の概要: SplitMeanFlow: Interval Splitting Consistency in Few-Step Generative Modeling
- arxiv url: http://arxiv.org/abs/2507.16884v1
- Date: Tue, 22 Jul 2025 16:26:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.718083
- Title: SplitMeanFlow: Interval Splitting Consistency in Few-Step Generative Modeling
- Title(参考訳): SplitMeanFlow: 数ステップ生成モデルにおける間隔分割一貫性
- Authors: Yi Guo, Wei Wang, Zhihang Yuan, Rong Cao, Kuan Chen, Zhengyang Chen, Yuanyuan Huo, Yang Zhang, Yuping Wang, Shouda Liu, Yuxuan Wang,
- Abstract要約: Flow Matchingのような生成モデルは最先端のパフォーマンスを達成したが、しばしば計算コストのかかる反復サンプリングプロセスによって妨げられている。
この分野の先導的手法であるMeanFlowは、平均速度と瞬間速度を接続する差分IDを強制することによって、この分野を学習する。
この研究において、この微分定式化はより基本的な原理の限定的な特別な場合であると主張する。
SplitMeanFlowは、学習目的として、この代数的一貫性を直接強制する新しいトレーニングフレームワークです。
- 参考スコア(独自算出の注目度): 23.539625950964876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models like Flow Matching have achieved state-of-the-art performance but are often hindered by a computationally expensive iterative sampling process. To address this, recent work has focused on few-step or one-step generation by learning the average velocity field, which directly maps noise to data. MeanFlow, a leading method in this area, learns this field by enforcing a differential identity that connects the average and instantaneous velocities. In this work, we argue that this differential formulation is a limiting special case of a more fundamental principle. We return to the first principles of average velocity and leverage the additivity property of definite integrals. This leads us to derive a novel, purely algebraic identity we term Interval Splitting Consistency. This identity establishes a self-referential relationship for the average velocity field across different time intervals without resorting to any differential operators. Based on this principle, we introduce SplitMeanFlow, a new training framework that enforces this algebraic consistency directly as a learning objective. We formally prove that the differential identity at the core of MeanFlow is recovered by taking the limit of our algebraic consistency as the interval split becomes infinitesimal. This establishes SplitMeanFlow as a direct and more general foundation for learning average velocity fields. From a practical standpoint, our algebraic approach is significantly more efficient, as it eliminates the need for JVP computations, resulting in simpler implementation, more stable training, and broader hardware compatibility. One-step and two-step SplitMeanFlow models have been successfully deployed in large-scale speech synthesis products (such as Doubao), achieving speedups of 20x.
- Abstract(参考訳): Flow Matchingのような生成モデルは最先端のパフォーマンスを達成したが、しばしば計算コストのかかる反復サンプリングプロセスによって妨げられている。
これを解決するために、最近の研究は、ノイズを直接データにマッピングする平均速度場を学習することで、数ステップまたは1ステップの生成に焦点を当てている。
この分野の先導的手法であるMeanFlowは、平均速度と瞬間速度を接続する差分IDを強制することによって、この分野を学習する。
この研究において、この微分定式化はより基本的な原理の限定的な特別な場合であると主張する。
平均速度の第一原理に戻り、定積分の加法的性質を利用する。
これにより、インターバル分割一貫性(Interval Splitting Consistency)と呼ばれる、新しく純粋に代数的なアイデンティティを導出する。
このアイデンティティは、微分作用素に頼らずに、異なる時間間隔で平均速度場に対する自己参照関係を確立する。
この原則に基づいて,この代数的一貫性を直接学習対象とする新たなトレーニングフレームワークであるSplitMeanFlowを紹介する。
我々は、間隔分割が無限小となるにつれて、代数的一貫性の極限を取ることによって、MeanFlowのコアにおける微分アイデンティティが復元されることを正式に証明する。
これにより、SplitMeanFlowは平均速度場を学習するための、より直接的な、より一般的な基盤として確立される。
実用的な観点から見ると、我々の代数的アプローチは、JVP計算の必要性を排除し、より単純な実装、より安定したトレーニング、より広範なハードウェア互換性をもたらすため、はるかに効率的です。
1ステップと2ステップのSplitMeanFlowモデルは、大規模な音声合成製品(Doubaoなど)にうまくデプロイされ、20倍のスピードアップを実現している。
関連論文リスト
- Contrastive Flow Matching [61.60002028726023]
コントラストフローマッチング(Contrastive Flow Matching)は、全ての条件フローに対して一意性を明示するフローマッチング対象の拡張である。
提案手法は,任意のサンプル対からの予測フロー間の相違を最大化するための対照的な目的を与える。
比較フローマッチングによるトレーニングモデル(1)は最大9倍のトレーニング速度,(2)は最大5倍のノイズ除去ステップ,(3)FIDを最大8.9以下に向上させる。
論文 参考訳(メタデータ) (2025-06-05T17:59:58Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - ProReflow: Progressive Reflow with Decomposed Velocity [52.249464542399636]
フローマッチングは、拡散モデルの拡散過程を数ステップまたは1ステップ生成のために直線に再フローすることを目的としている。
局所的な時間ステップで拡散モデルを段階的に再フローし,拡散全体を進行させるプログレッシブ・リフローを導入する。
また,フローマッチングにおける方向整合の重要性を強調し,位置整合性を考慮したV-Predictionを導入する。
論文 参考訳(メタデータ) (2025-03-05T04:50:53Z) - Towards Hierarchical Rectified Flow [18.976435451156824]
階層的な整流流を定式化し、データ分布をモデル化する。
我々は、既知のソース分布からデータ分布を生成する時間差分プロセスを経験的に定義する。
我々は,MNIST,CIFAR-10,ImageNet-32データとともに,合成1Dおよび2Dデータ上でこれを検証する。
論文 参考訳(メタデータ) (2025-02-24T18:59:55Z) - Phase-aware Training Schedule Simplifies Learning in Flow-Based Generative Models [0.1534667887016089]
本研究では,フローベース生成モデルのパラメータ化に用いる2層オートエンコーダのトレーニングを分析する。
速度場を表すオートエンコーダは,各位相に関係するパラメータのみを推定することにより,簡易化を図る。
論文 参考訳(メタデータ) (2024-12-10T23:21:04Z) - Consistency Flow Matching: Defining Straight Flows with Velocity Consistency [97.28511135503176]
本稿では,速度場の自己整合性を明示する新しいFM法であるConsistency Flow Matching(Consistency-FM)を紹介する。
予備実験により、一貫性FMは、一貫性モデルよりも4.4倍速く収束することにより、トレーニング効率を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-07-02T16:15:37Z) - Improving Consistency Models with Generator-Augmented Flows [16.049476783301724]
一貫性モデルは、ニューラルネットワークの単一前方通過におけるスコアベース拡散の多段階サンプリングを模倣する。
それらは、一貫性の蒸留と一貫性のトレーニングの2つの方法を学ぶことができる。
本稿では,一貫性モデルから得られたノイズデータを対応する出力へ転送する新しい流れを提案する。
論文 参考訳(メタデータ) (2024-06-13T20:22:38Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。