論文の概要: MeanFlowSE: one-step generative speech enhancement via conditional mean flow
- arxiv url: http://arxiv.org/abs/2509.14858v1
- Date: Thu, 18 Sep 2025 11:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.188107
- Title: MeanFlowSE: one-step generative speech enhancement via conditional mean flow
- Title(参考訳): MeanFlowSE:条件付き平均流による一段階生成音声強調
- Authors: Duojia Li, Shenghui Lu, Hongchen Pan, Zongyi Zhan, Qingyang Hong, Lin Li,
- Abstract要約: MeanFlowSEは、軌道に沿った有限区間の平均速度を学習する条件付き生成モデルである。
VoiceBank-DEMANDでは、シングルステップモデルは多ステップベースラインよりも計算コストが大幅に低い強い知性、忠実性、知覚品質を実現する。
- 参考スコア(独自算出の注目度): 13.437825847370442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multistep inference is a bottleneck for real-time generative speech enhancement because flow- and diffusion-based systems learn an instantaneous velocity field and therefore rely on iterative ordinary differential equation (ODE) solvers. We introduce MeanFlowSE, a conditional generative model that learns the average velocity over finite intervals along a trajectory. Using a Jacobian-vector product (JVP) to instantiate the MeanFlow identity, we derive a local training objective that directly supervises finite-interval displacement while remaining consistent with the instantaneous-field constraint on the diagonal. At inference, MeanFlowSE performs single-step generation via a backward-in-time displacement, removing the need for multistep solvers; an optional few-step variant offers additional refinement. On VoiceBank-DEMAND, the single-step model achieves strong intelligibility, fidelity, and perceptual quality with substantially lower computational cost than multistep baselines. The method requires no knowledge distillation or external teachers, providing an efficient, high-fidelity framework for real-time generative speech enhancement.
- Abstract(参考訳): フローおよび拡散に基づくシステムは即時速度場を学習し、従って反復常微分方程式(ODE)の解法に依存するため、マルチステップ推論はリアルタイム生成音声強調のボトルネックとなる。
本稿では,軌道に沿った有限区間の平均速度を学習する条件付き生成モデルであるMeanFlowSEを紹介する。
ヤコビアンベクトル積 (JVP) を用いてメアンフローの恒等性をインスタンス化し, 対角線上の瞬時場制約と整合性を維持しながら, 有限区間変位を直接監督する局所的な訓練目標を導出する。
推論では、MeanFlowSEは、バック・イン・タイムの変位によるシングルステップ生成を実行し、マルチステップのソルバの必要性を排除している。
VoiceBank-DEMANDでは、シングルステップモデルは多ステップベースラインよりも計算コストが大幅に低い強い知性、忠実性、知覚品質を実現する。
この方法は、知識蒸留や外部教師を必要とせず、リアルタイム生成音声強調のための効率的な高忠実度フレームワークを提供する。
関連論文リスト
- FNODE: Flow-Matching for data-driven simulation of constrained multibody systems [4.734933620065242]
Flow-Matching Neural Ordinary Differential Equation (FNODE)は、軌道データから直接加速ベクトル場を学習するフレームワークである。
FNODEは、従来のNeural ODEのボトルネックを表すODEソルバによるバックプロパゲーションの必要性を排除する。
我々はFNODEを,単発・三発のマススプリングダンパシステム,ダブル振り子,スライダークランク,カートポールなど,多種多様なベンチマークで評価した。
論文 参考訳(メタデータ) (2025-08-29T18:31:11Z) - SplitMeanFlow: Interval Splitting Consistency in Few-Step Generative Modeling [23.539625950964876]
Flow Matchingのような生成モデルは最先端のパフォーマンスを達成したが、しばしば計算コストのかかる反復サンプリングプロセスによって妨げられている。
この分野の先導的手法であるMeanFlowは、平均速度と瞬間速度を接続する差分IDを強制することによって、この分野を学習する。
この研究において、この微分定式化はより基本的な原理の限定的な特別な場合であると主張する。
SplitMeanFlowは、学習目的として、この代数的一貫性を直接強制する新しいトレーニングフレームワークです。
論文 参考訳(メタデータ) (2025-07-22T16:26:58Z) - Mean Flows for One-step Generative Modeling [64.4997821467102]
本稿では,一段階生成モデリングのための原理的かつ効果的なフレームワークを提案する。
ニューラルネットワークトレーニングのガイドには,平均速度と瞬時速度を適切に定義したアイデンティティが導出され,使用される。
提案手法はMeanFlowモデルと呼ばれ,自己完結型であり,事前学習,蒸留,カリキュラム学習は不要である。
論文 参考訳(メタデータ) (2025-05-19T17:59:42Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow [65.51671121528858]
拡散モデルは、視覚生成を大幅に改善したが、生成ODEを解くという計算集約的な性質のため、生成速度の遅さによって妨げられている。
広く認識されている解である整流流は、ODEパスを直線化することで生成速度を向上させる。
本稿では,より広範な拡散モデルのカテゴリをカバーするために,設計空間と修正の応用範囲を一般化するRectified Diffusionを提案する。
論文 参考訳(メタデータ) (2024-10-09T17:43:38Z) - Language Rectified Flow: Advancing Diffusion Language Generation with Probabilistic Flows [53.31856123113228]
本稿では,言語認識フロー (ours) を提案する。
本手法は, 標準確率流モデルの再構成に基づく。
実験およびアブレーション実験により,本手法は多くのNLPタスクに対して汎用的,効果的,有益であることが示されている。
論文 参考訳(メタデータ) (2024-03-25T17:58:22Z) - AdaFlow: Imitation Learning with Variance-Adaptive Flow-Based Policies [21.024480978703288]
本稿では,フローベース生成モデルに基づく模倣学習フレームワークであるAdaFlowを提案する。
AdaFlowは状態条件付き常微分方程式(ODE)によるポリシーを表す
AdaFlowは高速な推論速度で高い性能を実現する。
論文 参考訳(メタデータ) (2024-02-06T10:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。