論文の概要: The INTERSPEECH 2020 Deep Noise Suppression Challenge: Datasets,
Subjective Testing Framework, and Challenge Results
- arxiv url: http://arxiv.org/abs/2005.13981v3
- Date: Sun, 18 Oct 2020 04:36:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 14:08:17.649187
- Title: The INTERSPEECH 2020 Deep Noise Suppression Challenge: Datasets,
Subjective Testing Framework, and Challenge Results
- Title(参考訳): InterSPEECH 2020 Deep Noise Suppression Challenge: Datasets, Subjective Testing Framework, and Challenge Results
- Authors: Chandan K. A. Reddy, Vishak Gopal, Ross Cutler, Ebrahim Beyrami, Roger
Cheng, Harishchandra Dubey, Sergiy Matusevych, Robert Aichner, Ashkan Aazami,
Sebastian Braun, Puneet Rana, Sriram Srinivasan, Johannes Gehrke
- Abstract要約: DNS Challengeは、リアルタイム単一チャンネル音声強調における協調研究を促進することを目的としている。
我々は,ノイズ抑圧モデルの学習のための大規模クリーン音声コーパスとノイズコーパスをオープンソース化した。
また、ITU-T P.808をベースとしたオンライン主観的テストフレームワークをオープンソースとして公開し、研究者が開発を確実に行えるようにした。
- 参考スコア(独自算出の注目度): 27.074806625047646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The INTERSPEECH 2020 Deep Noise Suppression (DNS) Challenge is intended to
promote collaborative research in real-time single-channel Speech Enhancement
aimed to maximize the subjective (perceptual) quality of the enhanced speech. A
typical approach to evaluate the noise suppression methods is to use objective
metrics on the test set obtained by splitting the original dataset. While the
performance is good on the synthetic test set, often the model performance
degrades significantly on real recordings. Also, most of the conventional
objective metrics do not correlate well with subjective tests and lab
subjective tests are not scalable for a large test set. In this challenge, we
open-sourced a large clean speech and noise corpus for training the noise
suppression models and a representative test set to real-world scenarios
consisting of both synthetic and real recordings. We also open-sourced an
online subjective test framework based on ITU-T P.808 for researchers to
reliably test their developments. We evaluated the results using P.808 on a
blind test set. The results and the key learnings from the challenge are
discussed. The datasets and scripts can be found here for quick access
https://github.com/microsoft/DNS-Challenge.
- Abstract(参考訳): InterSPEECH 2020 Deep Noise Suppression (DNS) Challengeは、強調音声の主観的(知覚的)品質を最大化することを目的とした、リアルタイム単一チャネル音声強調における協調研究を促進することを目的としている。
ノイズ抑圧法を評価するための典型的なアプローチは、元のデータセットを分割して得られるテストセットの客観的メトリクスを使用することである。
合成テストセットでは性能が良いが、実際の記録ではモデル性能が著しく低下することが多い。
また、従来の客観的指標のほとんどは主観テストとよく相関せず、実験室の主観テストは大規模なテストセットに対してスケーラブルではない。
そこで本研究では,合成音と実音の両方からなる実世界シナリオに対して,騒音抑圧モデルのトレーニングを行うための,大規模なクリーンな音声とノイズコーパスをオープンソースとして公開する。
itu-t p.808に基づくオンライン主観テストフレームワークもオープンソースとして公開しています。
ブラインドテストセットにおけるp.808を用いた結果評価を行った。
課題から得られた結果と重要な教訓について論じる。
データセットとスクリプトは、https://github.com/microsoft/DNS-Challenge.comに簡単にアクセスできる。
関連論文リスト
- How Hard is this Test Set? NLI Characterization by Exploiting Training Dynamics [49.9329723199239]
本稿では, 実例と非実例を手作業で構築することなく, 挑戦的なテストセットを自動生成する手法を提案する。
一般的なNLIデータセットのテストセットを,トレーニングダイナミクスを利用した3つの難易度に分類する。
我々の評価法がトレーニングセットに適用された場合、トレーニング対象データのごく一部でトレーニングされたモデルは、フルデータセットでトレーニングされたモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-04T13:39:21Z) - Investigating the Impact of Hard Samples on Accuracy Reveals In-class Data Imbalance [4.291589126905706]
AutoMLドメインでは、モデルの有効性を評価するための重要な指標として、テスト精度が宣言される。
しかし、主性能指標としての試験精度の信頼性は疑問視されている。
トレーニングセットとテストセット間のハードサンプルの分布は、これらのセットの難易度に影響を与える。
本稿では,ハードサンプル識別法を比較するためのベンチマーク手法を提案する。
論文 参考訳(メタデータ) (2024-09-22T11:38:14Z) - Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Objective and subjective evaluation of speech enhancement methods in the UDASE task of the 7th CHiME challenge [19.810337081901178]
クリーン音声とノイズ信号の混合を人工的に生成し,音声強調のための教師付きモデルを訓練する。
この相違は、テストドメインが合成トレーニングドメインと大きく異なる場合、性能が低下する可能性がある。
第7回CiMEチャレンジのUDASEタスクは、テスト領域からの現実的なノイズの多い音声記録を活用することを目的としている。
論文 参考訳(メタデータ) (2024-02-02T13:45:42Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z) - Towards Robust and Generalizable Training: An Empirical Study of Noisy
Slot Filling for Input Perturbations [38.766702041991046]
スロット充足作業のためのノイズ-SFというノイズロバスト性評価データセットを提案する。
提案するデータセットには,5種類の人称アノテートノイズが含まれている。
ベースラインモデルはロバスト性評価において性能が劣ることがわかった。
論文 参考訳(メタデータ) (2023-10-05T12:59:57Z) - Listen, Adapt, Better WER: Source-free Single-utterance Test-time
Adaptation for Automatic Speech Recognition [65.84978547406753]
Test-time Adaptationは、ソースドメインでトレーニングされたモデルに適応して、テストサンプルの予測を改善することを目的としている。
単一発話テスト時間適応 (SUTA) は音声領域における最初のTTA研究である。
論文 参考訳(メタデータ) (2022-03-27T06:38:39Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Utilizing Self-supervised Representations for MOS Prediction [51.09985767946843]
既存の評価は通常、クリーンな参照または平行な地上真実データを必要とする。
一方、主観的テストは、追加のクリーンデータや並列データを必要としず、人間の知覚とよりよく相関する。
基礎的真理データを必要とせず,人間の知覚とよく相関する自動評価手法を開発した。
論文 参考訳(メタデータ) (2021-04-07T09:44:36Z) - Interspeech 2021 Deep Noise Suppression Challenge [41.68545171728067]
DNSチャレンジは、ノイズ抑圧の領域におけるイノベーションを奨励し、知覚音声の品質を向上するように設計されている。
広帯域シナリオのためのトレーニングとテストデータセットをオープンソース化した。
InterSPEECH 2021で組織された課題のこのバージョンでは、トレーニングとテストの両方のデータセットを拡張して、完全なバンドシナリオに対応しています。
論文 参考訳(メタデータ) (2021-01-06T07:46:25Z) - The INTERSPEECH 2020 Deep Noise Suppression Challenge: Datasets,
Subjective Speech Quality and Testing Framework [27.074806625047646]
InterSPEECH 2020 Deep Noise Suppression Challengeは、リアルタイム単一チャネル音声強調における協調研究を促進することを目的としている。
我々は,騒音抑制モデルを訓練するための大規模なクリーン音声とノイズコーパスをオープンソースとして公開し,実世界のシナリオに対する代表的テストセットを作成した。
この挑戦の勝者は、P.808フレームワークを使用した代表的テストセットの主観的評価に基づいて選ばれる。
論文 参考訳(メタデータ) (2020-01-23T17:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。