論文の概要: REAL-M: Towards Speech Separation on Real Mixtures
- arxiv url: http://arxiv.org/abs/2110.10812v1
- Date: Wed, 20 Oct 2021 22:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 18:40:57.945035
- Title: REAL-M: Towards Speech Separation on Real Mixtures
- Title(参考訳): REAL-M:リアルミキサーの音声分離に向けて
- Authors: Cem Subakan, Mirco Ravanelli, Samuele Cornell, Fran\c{c}ois Grondin
- Abstract要約: 実生活混合物のクラウドソースコーパスであるREAL-Mデータセットをリリースする。
本研究では, 実混合物の分離性能を確実に評価する。
我々は,REAL-Mデータセット上の推定器によって予測される性能傾向が,合成ベンチマークで得られた結果に密接に従っていることを観察した。
- 参考スコア(独自算出の注目度): 11.857595466782316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep learning based source separation has achieved
impressive results. Most studies, however, still evaluate separation models on
synthetic datasets, while the performance of state-of-the-art techniques on
in-the-wild speech data remains an open question. This paper contributes to
fill this gap in two ways. First, we release the REAL-M dataset, a
crowd-sourced corpus of real-life mixtures. Secondly, we address the problem of
performance evaluation of real-life mixtures, where the ground truth is not
available. We bypass this issue by carefully designing a blind Scale-Invariant
Signal-to-Noise Ratio (SI-SNR) neural estimator. Through a user study, we show
that our estimator reliably evaluates the separation performance on real
mixtures. The performance predictions of the SI-SNR estimator indeed correlate
well with human opinions. Moreover, we observe that the performance trends
predicted by our estimator on the REAL-M dataset closely follow those achieved
on synthetic benchmarks when evaluating popular speech separation models.
- Abstract(参考訳): 近年,ディープラーニングに基づくソース分離が目覚ましい成果を上げている。
しかし、ほとんどの研究は、合成データセットの分離モデルを評価する一方で、現在進行中の音声データの最先端技術の性能は未解決のままである。
本稿は,このギャップを2つの方法で満たすことに寄与する。
まず,実生活混合のクラウドソースコーパスであるreal-mデータセットをリリースする。
第二に, 基礎的真理が得られない実生活混合体の性能評価の問題に対処する。
本稿では,SI-SNR(Invariant Signal-to-Noise Ratio)ニューラル推定器を慎重に設計することで,この問題を回避する。
ユーザ調査の結果,実混合液の分離性能を確実に評価できることが判明した。
SI-SNR推定器の性能予測は人間の意見とよく相関している。
また,実mデータセット上で推定した性能傾向は,一般的な音声分離モデルの評価において,合成ベンチマークで得られた結果に密接に従っている。
関連論文リスト
- Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Supervised Contrastive Learning based Dual-Mixer Model for Remaining
Useful Life Prediction [3.081898819471624]
Remaining Useful Life (RUL)予測は、現在の予測モーメントからデバイスの完全な障害までの残時間を正確に見積もることを目的としている。
従来のRUL予測手法における時間的特徴と空間的特徴の厳密結合の欠点を克服するため,Dual-Mixerモデルと呼ばれる空間的時間的特徴抽出器を提案する。
提案手法の有効性は,C-MAPSSデータセットに関する他の最新の研究結果との比較により検証した。
論文 参考訳(メタデータ) (2024-01-29T14:38:44Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Counterfactual Data Augmentation with Contrastive Learning [27.28511396131235]
本稿では,選択したサブセットに対して,結果に反する結果をもたらすモデルに依存しないデータ拡張手法を提案する。
我々は、比較学習を用いて表現空間と類似度尺度を学習し、学習された類似度尺度で同定された個人に近い学習空間において、同様の潜在的な結果が得られるようにした。
この性質は、代替治療群から近接した近縁者に対する対実的な結果の信頼性の高い計算を保証する。
論文 参考訳(メタデータ) (2023-11-07T00:36:51Z) - Unsupervised evaluation of GAN sample quality: Introducing the TTJac
Score [5.1359892878090845]
データフリーで個々の合成画像の忠実度を測定するために「TTJac score」を提案する。
FFHQ, AFHQ-Wild, LSUN-Cars, LSUN-Horseデータセット上でのStyleGAN 2およびStyleGAN 2 ADAモデルに適用した実験結果を示す。
論文 参考訳(メタデータ) (2023-08-31T19:55:50Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - Doing Great at Estimating CATE? On the Neglected Assumptions in
Benchmark Comparisons of Treatment Effect Estimators [91.3755431537592]
もっとも単純な設定であっても、無知性仮定に基づく推定は誤解を招く可能性があることを示す。
異種処理効果評価のための機械学習ベンチマークデータセットを2つ検討した。
ベンチマークデータセットの固有の特性が、他のものよりもいくつかのアルゴリズムを好んでいる点を強調します。
論文 参考訳(メタデータ) (2021-07-28T13:21:27Z) - An Analysis of the Deployment of Models Trained on Private Tabular
Synthetic Data: Unexpected Surprises [4.129847064263057]
異なるプライベート(DP)合成データセットは、機械学習モデルをトレーニングするための強力なアプローチである。
差分プライベートな合成データ生成が分類に与える影響について検討する。
論文 参考訳(メタデータ) (2021-06-15T21:00:57Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Learning by Semantic Similarity Makes Abstractive Summarization Better [13.324006587838522]
近年のLM, BART, およびベンチマークデータセットCNN/DMの参照要約を比較した。
興味深いことに、モデル生成サマリーは参照サマリーと比較して高いスコアを受け取る。
論文 参考訳(メタデータ) (2020-02-18T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。