論文の概要: Speech Denoising without Clean Training Data: a Noise2Noise Approach
- arxiv url: http://arxiv.org/abs/2104.03838v1
- Date: Thu, 8 Apr 2021 15:27:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 12:48:52.207614
- Title: Speech Denoising without Clean Training Data: a Noise2Noise Approach
- Title(参考訳): クリーントレーニングデータのない音声の聴取:ノイズ2雑音アプローチ
- Authors: Madhav Mahesh Kashyap, Anuj Tambwekar, Krishnamoorthy Manohara, S
Natarajan
- Abstract要約: 本稿では,深層学習に基づく音声復調法で求められるクリーンな音声データの重依存の問題に取り組む。
その結果, 雑音下音声サンプルのみを用いて, ディープ音声発声ネットワークの訓練が可能となった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper tackles the problem of the heavy dependence of clean speech data
required by deep learning based audio-denoising methods by showing that it is
possible to train deep speech denoising networks using only noisy speech
samples. Conventional wisdom dictates that in order to achieve good speech
denoising performance, there is a requirement for a large quantity of both
noisy speech samples and perfectly clean speech samples, resulting in a need
for expensive audio recording equipment and extremely controlled soundproof
recording studios. These requirements pose significant challenges in data
collection, especially in economically disadvantaged regions and for low
resource languages. This work shows that speech denoising deep neural networks
can be successfully trained utilizing only noisy training audio. Furthermore it
is revealed that such training regimes achieve superior denoising performance
over conventional training regimes utilizing clean training audio targets, in
cases involving complex noise distributions and low Signal-to-Noise ratios
(high noise environments). This is demonstrated through experiments studying
the efficacy of our proposed approach over both real-world noises and synthetic
noises using the 20 layered Deep Complex U-Net architecture.
- Abstract(参考訳): 本稿では, 雑音下音声サンプルのみを用いて, 深層音声認識ネットワークを訓練できることを示すことにより, 深層学習に基づく音声デオライズ手法で要求されるクリーン音声データの重み依存問題に対処する。
従来の認識では、優れた発声性能を達成するためには、ノイズの多い音声サンプルと完全にクリーンな音声サンプルの両方が必要であり、高価な録音装置と極端に制御された防音録音スタジオが必要である。
これらの要件は、特に経済的に不利な地域や低リソース言語において、データ収集において大きな課題となる。
本研究は, 雑音訓練音声のみを用いて, ディープニューラルネットワークを用いた音声の学習を成功させることを示す。
さらに, 複雑な雑音分布と低信号対雑音比(高雑音環境)を含む場合において, クリーントレーニング音声目標を用いた従来の訓練方式よりも高い音化性能を達成できることが判明した。
本研究は,20階層のDeep Complex U-Netアーキテクチャを用いた実環境雑音と合成雑音の両方に対する提案手法の有効性を実証した。
関連論文リスト
- TRNet: Two-level Refinement Network leveraging Speech Enhancement for Noise Robust Speech Emotion Recognition [29.756961194844717]
提案したTRNetは,一致した雑音環境と一致しない雑音環境の両方において,提案方式の堅牢性を大幅に向上させる。
その結果,提案方式は,一致した環境と一致しない環境の両方において,提案方式のロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-04-19T16:09:17Z) - Continuous Modeling of the Denoising Process for Speech Enhancement
Based on Deep Learning [61.787485727134424]
状態変数をデノナイジングプロセスを示すために使用します。
UNetのようなニューラルネットワークは、連続的復調プロセスからサンプリングされたすべての状態変数を推定することを学ぶ。
実験結果から, クリーンターゲットに少量の雑音を保存することは, 音声強調に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-09-17T13:27:11Z) - Improving Noise Robustness of Contrastive Speech Representation Learning
with Speech Reconstruction [109.44933866397123]
実環境における音声認識システムの実現には,雑音の堅牢性が不可欠である。
雑音認識のための自己教師型フレームワークにより学習したノイズロスト表現を用いる。
ラベル付きデータのわずか16%で報告された最高の教師付きアプローチに匹敵するパフォーマンスを実現した。
論文 参考訳(メタデータ) (2021-10-28T20:39:02Z) - Removing Noise from Extracellular Neural Recordings Using Fully
Convolutional Denoising Autoencoders [62.997667081978825]
ノイズの多いマルチチャネル入力からクリーンなニューロン活動信号を生成することを学習する完全畳み込みデノイングオートエンコーダを提案する。
シミュレーションデータを用いた実験結果から,提案手法はノイズ崩壊型ニューラルネットワークの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-09-18T14:51:24Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z) - Noise2Kernel: Adaptive Self-Supervised Blind Denoising using a Dilated
Convolutional Kernel Architecture [3.796436257221662]
本研究では,不変性を満たす拡張畳み込みネットワークを提案し,ランダムマスキングを使わずに効率的なカーネルベーストレーニングを実現する。
また,ゼロ平均制約を回避し,塩とペッパーまたはハイブリッドノイズの除去に有効である適応型自己超過損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T12:13:17Z) - Enhancing and Learning Denoiser without Clean Reference [23.11994688706024]
本稿では,ノイズ伝達タスクの特別事例として,ノイズ低減タスクに関する新しいディープイメージデノベーション手法を提案する。
実世界のデノナイジングベンチマークの結果から,提案手法は現実的な雑音を除去する上で有望な性能を実現することを示す。
論文 参考訳(メタデータ) (2020-09-09T13:15:31Z) - Unpaired Learning of Deep Image Denoising [80.34135728841382]
本稿では,自己指導型学習と知識蒸留を取り入れた2段階の手法を提案する。
自己教師型学習では,実雑音の画像のみから視覚を学習するための拡張型盲点ネットワーク(D-BSN)を提案する。
実験の結果,本手法は合成ノイズ画像と実世界のノイズ画像の両方で良好に機能することがわかった。
論文 参考訳(メタデータ) (2020-08-31T16:22:40Z) - DenoiSeg: Joint Denoising and Segmentation [75.91760529986958]
我々は,いくつかの注釈付き基底真理セグメンテーションでエンドツーエンドに学習できる新しい手法であるDenoySegを提案する。
我々は、ノイズの多い画像だけで訓練できる自己教師付き遮音方式であるNoss2Voidを拡張して、密度の高い3クラスセグメンテーションを予測する。
論文 参考訳(メタデータ) (2020-05-06T17:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。