論文の概要: Self-refining of Pseudo Labels for Music Source Separation with Noisy
Labeled Data
- arxiv url: http://arxiv.org/abs/2307.12576v1
- Date: Mon, 24 Jul 2023 07:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 15:10:56.963857
- Title: Self-refining of Pseudo Labels for Music Source Separation with Noisy
Labeled Data
- Title(参考訳): 雑音ラベルデータを用いた音源分離のための擬似ラベルの自己精製
- Authors: Junghyun Koo, Yunkee Chae, Chang-Bin Jeon, Kyogu Lee
- Abstract要約: 音楽音源分離(MSS)は、正確にラベル付けされた個々の楽器トラックの可用性が限られているため、課題に直面している。
本稿では,ラベルを部分的に間違ってラベル付けしたデータセットに書き換える自動手法を提案する。
提案手法は, 雑音ラベル付きデータセットを用いて, 多ラベルの楽器認識において, 1%の精度劣化しか得られない。
- 参考スコア(独自算出の注目度): 15.275949700129797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music source separation (MSS) faces challenges due to the limited
availability of correctly-labeled individual instrument tracks. With the push
to acquire larger datasets to improve MSS performance, the inevitability of
encountering mislabeled individual instrument tracks becomes a significant
challenge to address. This paper introduces an automated technique for refining
the labels in a partially mislabeled dataset. Our proposed self-refining
technique, employed with a noisy-labeled dataset, results in only a 1% accuracy
degradation in multi-label instrument recognition compared to a classifier
trained on a clean-labeled dataset. The study demonstrates the importance of
refining noisy-labeled data in MSS model training and shows that utilizing the
refined dataset leads to comparable results derived from a clean-labeled
dataset. Notably, upon only access to a noisy dataset, MSS models trained on a
self-refined dataset even outperform those trained on a dataset refined with a
classifier trained on clean labels.
- Abstract(参考訳): 音楽ソース分離(mss)は、正しくラベルされた個々の楽器トラックの可用性が限られているため、課題に直面している。
より大きなデータセットを取得してMSSのパフォーマンスを向上させることで、誤ってラベル付けされた個々の楽器トラックに遭遇することは避けられなくなる。
本稿では,ラベルを部分的に誤記したデータセットで精錬する自動化手法を提案する。
提案手法では,クリーンラベルデータセットで学習した分類器と比較して,複数ラベル楽器認識において1%の精度低下しか得られなかった。
この研究は、mssモデルトレーニングにおけるノイズラベルデータの改良の重要性を示し、洗練されたデータセットを利用することで、クリーンラベルデータセットから得られた結果に匹敵する結果が得られることを示した。
特に、ノイズの多いデータセットのみにアクセスすると、自己修正データセットでトレーニングされたMSSモデルは、クリーンなラベルでトレーニングされた分類器で洗練されたデータセットでトレーニングされたデータセットよりも優れている。
関連論文リスト
- Automatic Dataset Construction (ADC): Sample Collection, Data Curation, and Beyond [38.89457061559469]
本稿では,データセット作成をコストと高効率で自動化する革新的な手法を提案する。
我々は,ラベルの誤り検出,ノイズやバイアスのあるデータによる堅牢な学習など,既存の手法を組み込んだオープンソースソフトウェアを提供する。
ラベルノイズ検出、ラベルノイズ学習、クラス不均衡学習に焦点を当てた3つのベンチマークデータセットを設計する。
論文 参考訳(メタデータ) (2024-08-21T04:45:12Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Learning in the Wild: Towards Leveraging Unlabeled Data for Effectively
Tuning Pre-trained Code Models [38.7352992942213]
我々は,大規模な未ラベルデータセットを用いた事前学習型コードモデルを改善するために,HINTという新しいアプローチを提案する。
HINTには、HybrId擬似ラベル付きデータ選択とノイズ耐性トレーニングの2つの主要なモジュールが含まれている。
実験の結果、HINTはタスク固有の方法でラベル付けされていないデータをうまく活用できることがわかった。
論文 参考訳(メタデータ) (2024-01-02T06:39:00Z) - An Empirical Study of Automated Mislabel Detection in Real World Vision
Datasets [3.123276402480922]
実世界のデータセットにラベルのずれのあるイメージを効果的に実装するための戦略を開発する。
アプローチを慎重に設計すると、クラス毎のパフォーマンスが最大8%向上する。
論文 参考訳(メタデータ) (2023-12-02T19:33:42Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Learning from Training Dynamics: Identifying Mislabeled Data Beyond
Manually Designed Features [43.41573458276422]
LSTMネットワークを例として,ノイズ検出を応用した新しい学習ベースソリューションを提案する。
提案手法は、合成ラベル雑音を用いたデータセットを用いて、教師あり方式でノイズ検出器を訓練する。
提案手法は, 各種データセットの誤ラベルサンプルを, さらなる適応を伴わずに, 精度良く検出できることが示唆された。
論文 参考訳(メタデータ) (2022-12-19T09:39:30Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。