論文の概要: Audio Tagging by Cross Filtering Noisy Labels
- arxiv url: http://arxiv.org/abs/2007.08165v1
- Date: Thu, 16 Jul 2020 07:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:49:59.212947
- Title: Audio Tagging by Cross Filtering Noisy Labels
- Title(参考訳): クロスフィルタリング雑音ラベルによる音声タグ付け
- Authors: Boqing Zhu, Kele Xu, Qiuqiang Kong, Huaimin Wang, Yuxing Peng
- Abstract要約: そこで我々はCrossFilterという新しいフレームワークを提案し,音声タグ付けにおけるノイズラベル問題に対処する。
提案手法は最先端の性能を達成し,アンサンブルモデルを超えている。
- 参考スコア(独自算出の注目度): 26.14064793686316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High quality labeled datasets have allowed deep learning to achieve
impressive results on many sound analysis tasks. Yet, it is labor-intensive to
accurately annotate large amount of audio data, and the dataset may contain
noisy labels in the practical settings. Meanwhile, the deep neural networks are
susceptive to those incorrect labeled data because of their outstanding
memorization ability. In this paper, we present a novel framework, named
CrossFilter, to combat the noisy labels problem for audio tagging. Multiple
representations (such as, Logmel and MFCC) are used as the input of our
framework for providing more complementary information of the audio. Then,
though the cooperation and interaction of two neural networks, we divide the
dataset into curated and noisy subsets by incrementally pick out the possibly
correctly labeled data from the noisy data. Moreover, our approach leverages
the multi-task learning on curated and noisy subsets with different loss
function to fully utilize the entire dataset. The noisy-robust loss function is
employed to alleviate the adverse effects of incorrect labels. On both the
audio tagging datasets FSDKaggle2018 and FSDKaggle2019, empirical results
demonstrate the performance improvement compared with other competing
approaches. On FSDKaggle2018 dataset, our method achieves state-of-the-art
performance and even surpasses the ensemble models.
- Abstract(参考訳): 高品質なラベル付きデータセットによって、ディープラーニングは多くの音響分析タスクで印象的な結果を得ることができる。
しかし、大量のオーディオデータを正確に注釈付けるのに手間がかかり、データセットには実用的な設定でノイズの多いラベルが含まれている可能性がある。
一方、ディープニューラルネットワークは、記憶力に優れたため、誤ったラベル付きデータに影響を受けやすい。
本稿では,音声タグ付けにおける雑音ラベル問題に対処するために,crossfilterという新しい枠組みを提案する。
複数の表現(LogmelやMFCCなど)が我々のフレームワークの入力として使われ、より補完的なオーディオ情報を提供する。
そして、2つのニューラルネットワークの協調と相互作用にもかかわらず、ノイズのあるデータから正しいラベル付きデータをインクリメンタルに選択することで、データセットをキュレートされた、ノイズの多いサブセットに分割する。
さらに,データ集合全体を十分に活用するために,損失関数の異なる,キュレーションやノイズの多い部分集合に対するマルチタスク学習も活用する。
ノイズロバスト損失関数は、誤ったラベルの悪影響を軽減するために用いられる。
オーディオタグ付けデータセットであるFSDKaggle2018とFSDKaggle2019では、他の競合するアプローチと比べてパフォーマンス改善が実証されている。
FSDKaggle2018データセットでは,本手法は最先端の性能を達成し,アンサンブルモデルを超えている。
関連論文リスト
- Tackling Noisy Clients in Federated Learning with End-to-end Label Correction [20.64304520865249]
本稿では,この複雑なラベルノイズ問題に対処する2段階のFedELCを提案する。
第1段階は、ラベルノイズの高いノイズの多いクライアントの検出を誘導することを目的としている。
第2段階は、エンドツーエンドのラベル修正フレームワークを通じて、ノイズの多いクライアントのデータのラベルを修正することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T08:35:32Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - Inconsistency Ranking-based Noisy Label Detection for High-quality Data [11.844624139434867]
本稿では,高品質データに対する非整合性ランキング付き自動ノイズラベル検出(NLD)手法を提案する。
クラス間の不整合度ランキングとクラス内不整合度ランキングを比較し,異なる雑音条件下でのメトリクス学習損失関数を比較した。
実験結果から,提案手法は大規模話者認識データセットの効率的なクリーニングと効率的なクリーニングを両立させる可能性が示唆された。
論文 参考訳(メタデータ) (2022-12-01T03:09:33Z) - Representation Learning for the Automatic Indexing of Sound Effects
Libraries [79.68916470119743]
タスク固有のがデータセットに依存しない表現は、クラス不均衡、一貫性のないクラスラベル、不十分なデータセットサイズなどのデータ問題にうまく対処できることを示す。
詳細な実験結果は、メトリック学習アプローチと異なるデータセット間の学習方法が表現効率に与える影響を示している。
論文 参考訳(メタデータ) (2022-08-18T23:46:13Z) - Tripartite: Tackle Noisy Labels by a More Precise Partition [21.582850128741022]
トレーニングデータをより正確に3つのサブセット(ハード、ノイズ、クリーン)に分割するTripartiteソリューションを提案する。
ノイズラベルの害を最小限に抑えつつノイズラベルデータの価値を最大化するために、ハードデータに低ウェイト学習を適用し、与えられたラベルを使わずにノイズラベルデータに自己教師付き学習を行う。
論文 参考訳(メタデータ) (2022-02-19T11:15:02Z) - Addressing out-of-distribution label noise in webly-labelled data [8.625286650577134]
検索エンジンを用いたデータ収集とアノテーションは、完全に人間に注釈付けされたデータセットを生成するための単純な代替手段である。
ウェブクローリングは非常に時間がかかりますが、検索した画像のいくつかは必然的にノイズがあります。
Webから収集されたノイズの多いデータをトレーニングするための堅牢なアルゴリズムの設計は、重要な研究の観点である。
論文 参考訳(メタデータ) (2021-10-26T13:38:50Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Searching for Robustness: Loss Learning for Noisy Classification Tasks [81.70914107917551]
テイラーを用いたフレキシブルな損失関数群をパラメタライズし、この空間におけるノイズロスの探索に進化的戦略を適用する。
その結果、ホワイトボックスの損失は、さまざまな下流タスクで効果的なノイズロバスト学習を可能にするシンプルで高速な「プラグアンドプレイ」モジュールを提供します。
論文 参考訳(メタデータ) (2021-02-27T15:27:22Z) - Co-Seg: An Image Segmentation Framework Against Label Corruption [8.219887855003648]
改良されたディープラーニングのパフォーマンスは、トレーニングのための高品質なラベルの可用性に強く結びついている。
我々は,低品質なノイズラベルを含むデータセット上でセグメンテーションネットワークを協調的に学習する新しいフレームワーク,Co-Segを提案する。
我々のフレームワークはどんなセグメンテーションアルゴリズムでも容易に実装でき、ノイズの多いラベルへのロバスト性を高めることができる。
論文 参考訳(メタデータ) (2021-01-31T20:01:40Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。