論文の概要: MeanFlowSE: one-step generative speech enhancement via conditional mean flow
- arxiv url: http://arxiv.org/abs/2509.14858v2
- Date: Fri, 19 Sep 2025 02:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 12:06:46.41963
- Title: MeanFlowSE: one-step generative speech enhancement via conditional mean flow
- Title(参考訳): MeanFlowSE:条件付き平均流による一段階生成音声強調
- Authors: Duojia Li, Shenghui Lu, Hongchen Pan, Zongyi Zhan, Qingyang Hong, Lin Li,
- Abstract要約: MeanFlowSEは、軌道に沿った有限区間の平均速度を学習する条件付き生成モデルである。
VoiceBank-DEMANDでは、シングルステップモデルは多ステップベースラインよりも計算コストが大幅に低い強い知性、忠実性、知覚品質を実現する。
- 参考スコア(独自算出の注目度): 13.437825847370442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multistep inference is a bottleneck for real-time generative speech enhancement because flow- and diffusion-based systems learn an instantaneous velocity field and therefore rely on iterative ordinary differential equation (ODE) solvers. We introduce MeanFlowSE, a conditional generative model that learns the average velocity over finite intervals along a trajectory. Using a Jacobian-vector product (JVP) to instantiate the MeanFlow identity, we derive a local training objective that directly supervises finite-interval displacement while remaining consistent with the instantaneous-field constraint on the diagonal. At inference, MeanFlowSE performs single-step generation via a backward-in-time displacement, removing the need for multistep solvers; an optional few-step variant offers additional refinement. On VoiceBank-DEMAND, the single-step model achieves strong intelligibility, fidelity, and perceptual quality with substantially lower computational cost than multistep baselines. The method requires no knowledge distillation or external teachers, providing an efficient, high-fidelity framework for real-time generative speech enhancement. The proposed method is open-sourced at https://github.com/liduojia1/MeanFlowSE.
- Abstract(参考訳): フローおよび拡散に基づくシステムは即時速度場を学習し、従って反復常微分方程式(ODE)の解法に依存するため、マルチステップ推論はリアルタイム生成音声強調のボトルネックとなる。
本稿では,軌道に沿った有限区間の平均速度を学習する条件付き生成モデルであるMeanFlowSEを紹介する。
ヤコビアンベクトル積 (JVP) を用いてメアンフローの恒等性をインスタンス化し, 対角線上の瞬時場制約と整合性を維持しながら, 有限区間変位を直接監督する局所的な訓練目標を導出する。
推論では、MeanFlowSEは、バック・イン・タイムの変位によるシングルステップ生成を実行し、マルチステップのソルバの必要性を排除している。
VoiceBank-DEMANDでは、シングルステップモデルは多ステップベースラインよりも計算コストが大幅に低い強い知性、忠実性、知覚品質を実現する。
この方法は、知識蒸留や外部教師を必要とせず、リアルタイム生成音声強調のための効率的な高忠実度フレームワークを提供する。
提案手法はhttps://github.com/liduojia1/MeanFlowSEで公開されている。
関連論文リスト
- MeanVoiceFlow: One-step Nonparallel Voice Conversion with Mean Flows [42.55959060773461]
MeanVoiceFlowは平均フローに基づいた1ステップのノン並列VCモデルである。
MeanVoiceFlowは、従来のマルチステップおよび蒸留ベースのモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-02-20T09:48:23Z) - Trajectory Stitching for Solving Inverse Problems with Flow-Based Models [68.36374645801901]
フローベースの生成モデルは、逆問題を解決するための強力な先行要因として現れてきた。
1つの初期コードではなく、中間潜在状態の列として軌道を表すMS-Flowを提案する。
画像の回復と逆問題に対するMS-Flowの有効性を示す。
論文 参考訳(メタデータ) (2026-02-09T11:36:41Z) - FlowConsist: Make Your Flow Consistent with Real Trajectory [99.22869983378062]
現在の高速フロートレーニングパラダイムには,2つの根本的な問題がある,と我々は主張する。
ランダムにペアリングされたノイズデータサンプルから構築された条件付き速度は、系統的な軌跡ドリフトを導入する。
本研究では,高速フローにおける軌道整合性を実現するためのトレーニングフレームワークであるFlowConsistを提案する。
論文 参考訳(メタデータ) (2026-02-06T03:24:23Z) - Generative Modeling with Continuous Flows: Sample Complexity of Flow Matching [60.37045080890305]
本稿では,フローマッチングに基づく生成モデルにおいて,サンプルの複雑さを初めて解析する。
速度場推定誤差をニューラルネットワーク近似誤差、有限標本サイズによる統計的誤差、速度場推定のための有限個の最適化ステップによる最適化誤差に分解する。
論文 参考訳(メタデータ) (2025-12-01T05:14:25Z) - Flow Straighter and Faster: Efficient One-Step Generative Modeling via MeanFlow on Rectified Trajectories [14.36205662558203]
Rectified MeanFlowは、単一のリフローステップのみを使用して、修正された軌道に沿った平均速度場をモデル化するフレームワークである。
64、256、および512の解像度でのImageNetの実験では、Re-MeanFlowは、サンプルの品質とトレーニング効率の両方で、一段階の蒸留法とRectified Flow法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-28T16:50:08Z) - One-Step Generative Policies with Q-Learning: A Reformulation of MeanFlow [56.13949180229929]
ノイズを直接行動にマッピングするオフライン強化学習のための一段階の生成ポリシーを,MeanFlowの残留的な再構成を通じて導入する。
本手法はオフライン・オフライン両方の強化学習環境において高い性能を実現する。
論文 参考訳(メタデータ) (2025-11-17T06:34:17Z) - Compose Yourself: Average-Velocity Flow Matching for One-Step Speech Enhancement [46.23750572308065]
COSEは音声強調に適した一段階FMフレームワークである。
平均速度を効率的に計算するための速度合成IDを導入する。
実験によると、COSEはサンプリングを最大5倍速くし、トレーニングコストを40%削減する。
論文 参考訳(メタデータ) (2025-09-19T13:07:39Z) - FNODE: Flow-Matching for data-driven simulation of constrained multibody systems [4.734933620065242]
Flow-Matching Neural Ordinary Differential Equation (FNODE)は、軌道データから直接加速ベクトル場を学習するフレームワークである。
FNODEは、従来のNeural ODEのボトルネックを表すODEソルバによるバックプロパゲーションの必要性を排除する。
我々はFNODEを,単発・三発のマススプリングダンパシステム,ダブル振り子,スライダークランク,カートポールなど,多種多様なベンチマークで評価した。
論文 参考訳(メタデータ) (2025-08-29T18:31:11Z) - SplitMeanFlow: Interval Splitting Consistency in Few-Step Generative Modeling [23.539625950964876]
Flow Matchingのような生成モデルは最先端のパフォーマンスを達成したが、しばしば計算コストのかかる反復サンプリングプロセスによって妨げられている。
この分野の先導的手法であるMeanFlowは、平均速度と瞬間速度を接続する差分IDを強制することによって、この分野を学習する。
この研究において、この微分定式化はより基本的な原理の限定的な特別な場合であると主張する。
SplitMeanFlowは、学習目的として、この代数的一貫性を直接強制する新しいトレーニングフレームワークです。
論文 参考訳(メタデータ) (2025-07-22T16:26:58Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow [65.51671121528858]
拡散モデルは、視覚生成を大幅に改善したが、生成ODEを解くという計算集約的な性質のため、生成速度の遅さによって妨げられている。
広く認識されている解である整流流は、ODEパスを直線化することで生成速度を向上させる。
本稿では,より広範な拡散モデルのカテゴリをカバーするために,設計空間と修正の応用範囲を一般化するRectified Diffusionを提案する。
論文 参考訳(メタデータ) (2024-10-09T17:43:38Z) - Language Rectified Flow: Advancing Diffusion Language Generation with Probabilistic Flows [53.31856123113228]
本稿では,言語認識フロー (ours) を提案する。
本手法は, 標準確率流モデルの再構成に基づく。
実験およびアブレーション実験により,本手法は多くのNLPタスクに対して汎用的,効果的,有益であることが示されている。
論文 参考訳(メタデータ) (2024-03-25T17:58:22Z) - AdaFlow: Imitation Learning with Variance-Adaptive Flow-Based Policies [21.024480978703288]
本稿では,フローベース生成モデルに基づく模倣学習フレームワークであるAdaFlowを提案する。
AdaFlowは状態条件付き常微分方程式(ODE)によるポリシーを表す
AdaFlowは高速な推論速度で高い性能を実現する。
論文 参考訳(メタデータ) (2024-02-06T10:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。