論文の概要: Variational Autoencoder for Speech Enhancement with a Noise-Aware
Encoder
- arxiv url: http://arxiv.org/abs/2102.08706v1
- Date: Wed, 17 Feb 2021 11:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:26:08.014128
- Title: Variational Autoencoder for Speech Enhancement with a Noise-Aware
Encoder
- Title(参考訳): ノイズアウェアエンコーダを用いた音声強調のための可変オートエンコーダ
- Authors: Huajian Fang, Guillaume Carbajal, Stefan Wermter, Timo Gerkmann
- Abstract要約: 本稿では,ノイズ対応エンコーダを用いて,学習段階での雑音情報を含むことを提案する。
提案するノイズ認識vaeは,モデルパラメータ数を増加させることなく,全体的な歪みの観点から標準vaeを上回っている。
- 参考スコア(独自算出の注目度): 30.318947721658862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, a generative variational autoencoder (VAE) has been proposed for
speech enhancement to model speech statistics. However, this approach only uses
clean speech in the training phase, making the estimation particularly
sensitive to noise presence, especially in low signal-to-noise ratios (SNRs).
To increase the robustness of the VAE, we propose to include noise information
in the training phase by using a noise-aware encoder trained on noisy-clean
speech pairs. We evaluate our approach on real recordings of different noisy
environments and acoustic conditions using two different noise datasets. We
show that our proposed noise-aware VAE outperforms the standard VAE in terms of
overall distortion without increasing the number of model parameters. At the
same time, we demonstrate that our model is capable of generalizing to unseen
noise conditions better than a supervised feedforward deep neural network
(DNN). Furthermore, we demonstrate the robustness of the model performance to a
reduction of the noisy-clean speech training data size.
- Abstract(参考訳): 近年,音声統計をモデル化するための音声強調のための生成変分オートエンコーダ (VAE) が提案されている。
しかし、このアプローチは訓練段階ではクリーンな音声のみを使用し、特に低信号対雑音比(SNR)でノイズの存在に特に敏感な推定を行います。
そこで,このvaeのロバスト性を高めるために,ノイズ対応エンコーダを用いて学習段階における雑音情報を含むことを提案する。
異なる雑音環境および音響環境の実記録に対する2種類のノイズデータセットを用いたアプローチを評価した。
提案するノイズ認識vaeは,モデルパラメータ数を増加させることなく,全体的な歪みの観点から標準vaeを上回っている。
同時に、我々のモデルは、教師付きフィードフォワードディープニューラルネットワーク(DNN)よりも、目に見えない雑音条件に最適化できることを示した。
さらに、モデル性能の堅牢性を実証し、ノイズのあるクリーンな音声トレーニングデータサイズを低減します。
関連論文リスト
- Large Language Models are Efficient Learners of Noise-Robust Speech
Recognition [65.95847272465124]
大規模言語モデル(LLM)の最近の進歩は、自動音声認識(ASR)のための生成誤り訂正(GER)を促進している。
本研究では,このベンチマークをノイズの多い条件に拡張し,GERのデノナイジングをLLMに教えることができるかを検討する。
最新のLLM実験では,単語誤り率を最大53.9%改善し,新たなブレークスルーを実現している。
論文 参考訳(メタデータ) (2024-01-19T01:29:27Z) - Bring the Noise: Introducing Noise Robustness to Pretrained Automatic
Speech Recognition [13.53738829631595]
本稿では,任意のエンコーダ・デコーダアーキテクチャに適用可能なデノナイズ機能を抽出する新しい手法を提案する。
我々はノイズ音声データベース(NSD)で事前プロセッサを訓練し、ノイズ入力から雑音化されたスペクトルを再構成する。
クリーンコーダは音声からノイズをフィルタリングすることができ、雑音条件下で下流モデルのワード誤り率(WER)を改善できることを示す。
論文 参考訳(メタデータ) (2023-09-05T11:34:21Z) - DiffSED: Sound Event Detection with Denoising Diffusion [70.18051526555512]
生成学習の観点からSED問題を再構築する。
具体的には,騒音拡散過程において,雑音のある提案から音の時間境界を生成することを目的としている。
トレーニング中は,ノイズの多い遅延クエリを基本バージョンに変換することで,ノイズ発生過程の逆転を学習する。
論文 参考訳(メタデータ) (2023-08-14T17:29:41Z) - Noise-aware Speech Enhancement using Diffusion Probabilistic Model [35.17225451626734]
拡散モデルにおける逆過程を導出する雑音固有情報を抽出する雑音認識音声強調(NASE)手法を提案する。
NASEは任意の拡散SEモデルに一般化できるプラグイン・アンド・プレイモジュールであることが示されている。
論文 参考訳(メタデータ) (2023-07-16T12:46:11Z) - Unsupervised speech enhancement with deep dynamical generative speech
and noise models [26.051535142743166]
本研究は、クリーン音声モデルとして動的変分オートエンコーダ(DVAE)、ノイズモデルとして非負行列分解(NMF)を用いた教師なし音声強調に関する以前の研究に基づいている。
本研究では,NMFノイズモデルにDVAE潜伏変数,雑音観測,あるいはその両方に依存する深部動的生成モデル(DDGM)を置き換えることを提案する。
論文 参考訳(メタデータ) (2023-06-13T14:52:35Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - NLIP: Noise-robust Language-Image Pre-training [95.13287735264937]
雑音調和と雑音補完という2つの手法を用いて事前学習の安定化を図るため,NLIPの原理的手法を提案する。
我々のNLIPは、画像テキスト事前学習における一般的なノイズ効果をより効率的に軽減することができる。
論文 参考訳(メタデータ) (2022-12-14T08:19:30Z) - NASTAR: Noise Adaptive Speech Enhancement with Target-Conditional
Resampling [34.565077865854484]
ターゲット条件再サンプリング(NASTAR)を用いた雑音適応音声強調手法を提案する。
NASTARはフィードバック機構を使用して、ノイズ抽出器と検索モデルを介して適応的なトレーニングデータをシミュレートする。
実験結果から,NASTARは1つの雑音のある音声サンプルを効果的に使用して,SEモデルを目標条件に適応させることができることがわかった。
論文 参考訳(メタデータ) (2022-06-18T00:15:48Z) - Improving Noise Robustness of Contrastive Speech Representation Learning
with Speech Reconstruction [109.44933866397123]
実環境における音声認識システムの実現には,雑音の堅牢性が不可欠である。
雑音認識のための自己教師型フレームワークにより学習したノイズロスト表現を用いる。
ラベル付きデータのわずか16%で報告された最高の教師付きアプローチに匹敵するパフォーマンスを実現した。
論文 参考訳(メタデータ) (2021-10-28T20:39:02Z) - Adaptive noise imitation for image denoising [58.21456707617451]
本研究では,自然雑音画像からノイズデータを合成できる新しいテキストバッファ適応ノイズ模倣(ADANI)アルゴリズムを開発した。
現実的なノイズを生成するため、ノイズ発生装置はノイズ発生のガイドとなる雑音/クリーン画像を入力として利用する。
ADANIから出力されるノイズデータとそれに対応する基盤構造とを結合すると、デノイングCNNは、完全に教師された方法で訓練される。
論文 参考訳(メタデータ) (2020-11-30T02:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。