論文の概要: Learning with Out-of-Distribution Data for Audio Classification
- arxiv url: http://arxiv.org/abs/2002.04683v1
- Date: Tue, 11 Feb 2020 21:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:55:25.000666
- Title: Learning with Out-of-Distribution Data for Audio Classification
- Title(参考訳): 音声分類のためのアウト・オブ・ディストリビューションデータを用いた学習
- Authors: Turab Iqbal, Yin Cao, Qiuqiang Kong, Mark D. Plumbley, Wenwu Wang
- Abstract要約: 我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 60.48251022280506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In supervised machine learning, the assumption that training data is labelled
correctly is not always satisfied. In this paper, we investigate an instance of
labelling error for classification tasks in which the dataset is corrupted with
out-of-distribution (OOD) instances: data that does not belong to any of the
target classes, but is labelled as such. We show that detecting and relabelling
certain OOD instances, rather than discarding them, can have a positive effect
on learning. The proposed method uses an auxiliary classifier, trained on data
that is known to be in-distribution, for detection and relabelling. The amount
of data required for this is shown to be small. Experiments are carried out on
the FSDnoisy18k audio dataset, where OOD instances are very prevalent. The
proposed method is shown to improve the performance of convolutional neural
networks by a significant margin. Comparisons with other noise-robust
techniques are similarly encouraging.
- Abstract(参考訳): 教師付き機械学習では、トレーニングデータが正しくラベル付けされているという仮定は必ずしも満たされない。
本稿では,データセットがout-of-distribution(OOD)インスタンスで破損した分類タスクのラベル付けエラーの事例について検討する。
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスの検出とリラベリングが学習に肯定的な影響を与えることを示した。
提案手法は,分布内に存在するデータに基づいて学習し,検出とリラベルを行う補助分類器を用いる。
これに必要なデータ量は少ないことが示されている。
FSDnoisy18kオーディオデータセットで実験が行われ、OODインスタンスが非常に多い。
提案手法は畳み込みニューラルネットワークの性能を有意なマージンで向上させる。
他のノイズロバスト技術との比較も同様に奨励されている。
関連論文リスト
- Safe Semi-Supervised Contrastive Learning Using In-Distribution Data as Positive Examples [3.4546761246181696]
本稿では,大量のラベルのないデータを完全に活用するための,自己教師付きコントラスト学習手法を提案する。
その結果,自己指導型コントラスト学習は分類精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-08-03T22:33:13Z) - An accurate detection is not all you need to combat label noise in web-noisy datasets [23.020126612431746]
分離した超平面の直接推定により,OOD試料の正確な検出が可能であることを示す。
本稿では,線形分離を用いた雑音検出とSOTA(State-of-the-art-the-loss)アプローチを交互に行うハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-08T00:21:42Z) - A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - Are labels informative in semi-supervised learning? -- Estimating and
leveraging the missing-data mechanism [4.675583319625962]
半教師付き学習は、ラベルのないデータを利用して機械学習モデルを改善するための強力な技術である。
これは、あるクラスが他のクラスよりもラベル付けされる可能性が高い場合に発生する、情報的ラベルの存在に影響される可能性がある。
本稿では,データ不足のメカニズムを推定し,逆確率重み付けを用いてSSLアルゴリズムを劣化させることにより,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T09:18:46Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。