論文の概要: Addressing Missing Labels in Large-Scale Sound Event Recognition Using a
Teacher-Student Framework With Loss Masking
- arxiv url: http://arxiv.org/abs/2005.00878v2
- Date: Sat, 25 Jul 2020 14:50:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 13:09:49.876523
- Title: Addressing Missing Labels in Large-Scale Sound Event Recognition Using a
Teacher-Student Framework With Loss Masking
- Title(参考訳): 損失マスキングを用いた教師学習フレームワークを用いた大規模音響イベント認識における欠落ラベルの対応
- Authors: Eduardo Fonseca, Shawn Hershey, Manoj Plakal, Daniel P. W. Ellis, Aren
Jansen, R. Channing Moore, Xavier Serra
- Abstract要約: 音響イベント認識におけるラベルノイズの研究は,大規模でノイズの多いデータセットの出現によって近年注目されている。
この研究は、ラベルの欠如、大規模なオーディオデータセットの大きな弱点の1つ、およびAudioSetの最も顕著な問題に対処する。
そこで本研究では,損失マスキングを用いた教師学習フレームワークをベースとした簡易かつモデルに依存しない手法を提案し,まず最も重要なラベル候補を識別し,学習過程においてその貢献を無視する。
- 参考スコア(独自算出の注目度): 27.53511063222248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The study of label noise in sound event recognition has recently gained
attention with the advent of larger and noisier datasets. This work addresses
the problem of missing labels, one of the big weaknesses of large audio
datasets, and one of the most conspicuous issues for AudioSet. We propose a
simple and model-agnostic method based on a teacher-student framework with loss
masking to first identify the most critical missing label candidates, and then
ignore their contribution during the learning process. We find that a simple
optimisation of the training label set improves recognition performance without
additional computation. We discover that most of the improvement comes from
ignoring a critical tiny portion of the missing labels. We also show that the
damage done by missing labels is larger as the training set gets smaller, yet
it can still be observed even when training with massive amounts of audio. We
believe these insights can generalize to other large-scale datasets.
- Abstract(参考訳): 音響イベント認識におけるラベルノイズの研究は、最近大規模でノイズの多いデータセットの出現で注目を集めている。
この研究は、ラベルの欠落、大きなオーディオデータセットの大きな弱点の1つ、そしてオーディオセットの最も顕著な問題の1つに対処する。
そこで本研究では,損失マスキングを用いた教師学習フレームワークをベースとした簡易かつモデルに依存しない手法を提案し,まず最も重要なラベル候補を識別し,学習過程においてその貢献を無視する。
学習ラベルセットの簡易最適化により,追加計算をすることなく認識性能が向上することがわかった。
改善の大部分は、欠落しているラベルのごく一部を無視することによるものです。
また、ラベルの欠落によるダメージは、トレーニングセットが小さくなるにつれて大きくなるが、大量のオーディオでトレーニングしても観察可能であることも示している。
これらの洞察は他の大規模データセットに一般化できると考えています。
関連論文リスト
- Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Noisy Label Learning for Large-scale Medical Image Classification [37.79118840129632]
我々は,最先端のノイズラベルマルチクラストレーニングアプローチを適用し,データセットの胸部x線14のマルチラベル分類器を学習する。
Chest X-ray14 のラベルノイズの大半が 'No Finding' クラスに存在することを示し、これはラベルミスによる 14 疾患の 1 つ以上を含む可能性が高いクラスであるため直感的に正しい。
論文 参考訳(メタデータ) (2021-03-06T07:42:36Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Audio Tagging by Cross Filtering Noisy Labels [26.14064793686316]
そこで我々はCrossFilterという新しいフレームワークを提案し,音声タグ付けにおけるノイズラベル問題に対処する。
提案手法は最先端の性能を達成し,アンサンブルモデルを超えている。
論文 参考訳(メタデータ) (2020-07-16T07:55:04Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。