論文の概要: SERIL: Noise Adaptive Speech Enhancement using Regularization-based
Incremental Learning
- arxiv url: http://arxiv.org/abs/2005.11760v2
- Date: Thu, 17 Sep 2020 20:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:10:47.402862
- Title: SERIL: Noise Adaptive Speech Enhancement using Regularization-based
Incremental Learning
- Title(参考訳): SERIL:正規化に基づくインクリメンタル学習による雑音適応音声強調
- Authors: Chi-Chang Lee, Yu-Chen Lin, Hsuan-Tien Lin, Hsin-Min Wang, Yu Tsao
- Abstract要約: 新しい環境への適応は、以前に学んだ環境を壊滅的に忘れてしまう可能性がある。
本稿では,正規化に基づくインクリメンタルラーニングSE(SERIL)戦略を提案する。
規則化制約により、パラメータは以前の騒音環境の知識を維持しつつ、新しい騒音環境に更新される。
- 参考スコア(独自算出の注目度): 36.24803486242198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous noise adaptation techniques have been proposed to fine-tune
deep-learning models in speech enhancement (SE) for mismatched noise
environments. Nevertheless, adaptation to a new environment may lead to
catastrophic forgetting of the previously learned environments. The
catastrophic forgetting issue degrades the performance of SE in real-world
embedded devices, which often revisit previous noise environments. The nature
of embedded devices does not allow solving the issue with additional storage of
all pre-trained models or earlier training data. In this paper, we propose a
regularization-based incremental learning SE (SERIL) strategy, complementing
existing noise adaptation strategies without using additional storage. With a
regularization constraint, the parameters are updated to the new noise
environment while retaining the knowledge of the previous noise environments.
The experimental results show that, when faced with a new noise domain, the
SERIL model outperforms the unadapted SE model. Meanwhile, compared with the
current adaptive technique based on fine-tuning, the SERIL model can reduce the
forgetting of previous noise environments by 52%. The results verify that the
SERIL model can effectively adjust itself to new noise environments while
overcoming the catastrophic forgetting issue. The results make SERIL a
favorable choice for real-world SE applications, where the noise environment
changes frequently.
- Abstract(参考訳): 音声強調法(SE)における微調整深層学習モデルに対して,多数の雑音適応手法が提案されている。
しかし、新しい環境への適応は、以前に学んだ環境を壊滅的に忘れてしまう可能性がある。
悲惨な忘れる問題は、しばしば以前のノイズ環境を再考する現実世界の組み込みデバイスにおけるSEの性能を低下させる。
組み込みデバイスの性質上、すべての事前トレーニングされたモデルや以前のトレーニングデータの追加ストレージで問題を解決することはできない。
本稿では,正規化に基づくインクリメンタル学習se(seril)戦略を提案し,追加ストレージを使わずに既存の雑音適応戦略を補完する。
正規化制約により、パラメータは、以前のノイズ環境の知識を保持しながら、新しいノイズ環境に更新される。
実験の結果,新しいノイズ領域に直面した場合,SERILモデルは非適応SEモデルよりも優れていた。
一方、微調整に基づく現在の適応手法と比較すると、セリルモデルは従来の雑音環境を52%減らすことができる。
その結果,セリルモデルが壊滅的な音環境を克服しながら,新しい騒音環境に効果的に適応できることが確認された。
その結果、SERILは実世界のSEアプリケーションに好適な選択となり、ノイズ環境は頻繁に変化する。
関連論文リスト
- Beyond Image Prior: Embedding Noise Prior into Conditional Denoising Transformer [17.430622649002427]
既存の学習ベースの推論手法は、大規模なデータセットからイメージを一般化するためにモデルを訓練するのが一般的である。
本稿では,ノイズと画像の先行部分の分離を区別することによる,難読化問題に対する新たな視点を提案する。
本稿では,1つの生雑音画像から直接先行する雑音を正確に推定する局所雑音優先推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-12T08:43:11Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - NLIP: Noise-robust Language-Image Pre-training [95.13287735264937]
雑音調和と雑音補完という2つの手法を用いて事前学習の安定化を図るため,NLIPの原理的手法を提案する。
我々のNLIPは、画像テキスト事前学習における一般的なノイズ効果をより効率的に軽減することができる。
論文 参考訳(メタデータ) (2022-12-14T08:19:30Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - NASTAR: Noise Adaptive Speech Enhancement with Target-Conditional
Resampling [34.565077865854484]
ターゲット条件再サンプリング(NASTAR)を用いた雑音適応音声強調手法を提案する。
NASTARはフィードバック機構を使用して、ノイズ抽出器と検索モデルを介して適応的なトレーニングデータをシミュレートする。
実験結果から,NASTARは1つの雑音のある音声サンプルを効果的に使用して,SEモデルを目標条件に適応させることができることがわかった。
論文 参考訳(メタデータ) (2022-06-18T00:15:48Z) - Variational Autoencoder for Speech Enhancement with a Noise-Aware
Encoder [30.318947721658862]
本稿では,ノイズ対応エンコーダを用いて,学習段階での雑音情報を含むことを提案する。
提案するノイズ認識vaeは,モデルパラメータ数を増加させることなく,全体的な歪みの観点から標準vaeを上回っている。
論文 参考訳(メタデータ) (2021-02-17T11:40:42Z) - Dynamic Layer Customization for Noise Robust Speech Emotion Recognition
in Heterogeneous Condition Training [16.807298318504156]
ノイズ条件毎に,サンプルを特殊特徴エンコーダに動的にルーティングすることで,性能を向上できることを示す。
時間的順序付けを動的にルーティングすることで,これらの改善をマルチモーダル設定に拡張する。
論文 参考訳(メタデータ) (2020-10-21T18:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。