論文の概要: To Aggregate or Not? Learning with Separate Noisy Labels
- arxiv url: http://arxiv.org/abs/2206.07181v1
- Date: Tue, 14 Jun 2022 21:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:35:07.956077
- Title: To Aggregate or Not? Learning with Separate Noisy Labels
- Title(参考訳): 集約するかどうか?
ノイズラベルの分離による学習
- Authors: Jiaheng Wei, Zhaowei Zhu, Tianyi Luo, Ehsan Amid, Abhishek Kumar, Yang
Liu
- Abstract要約: 本稿では,個別のノイズラベルを単一のラベルに集約するか,個別に使用すべきかという問題に対処する。
実験的リスク最小化フレームワークを用いて,両手法の性能を理論的に解析する。
我々の定理は、ノイズレートが高い場合やラベル/アノテーションの数が少ない場合、ラベルの分離がラベルの集約よりも望ましいと結論付けている。
- 参考スコア(独自算出の注目度): 28.14966756980763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rawly collected training data often comes with separate noisy labels
collected from multiple imperfect annotators (e.g., via crowdsourcing).
Typically one would first aggregate the separate noisy labels into one and
apply standard training methods. The literature has also studied extensively on
effective aggregation approaches. This paper revisits this choice and aims to
provide an answer to the question of whether one should aggregate separate
noisy labels into single ones or use them separately as given. We theoretically
analyze the performance of both approaches under the empirical risk
minimization framework for a number of popular loss functions, including the
ones designed specifically for the problem of learning with noisy labels. Our
theorems conclude that label separation is preferred over label aggregation
when the noise rates are high, or the number of labelers/annotations is
insufficient. Extensive empirical results validate our conclusion.
- Abstract(参考訳): 生収集されたトレーニングデータは、複数の不完全な注釈家(例えば、クラウドソーシングによって)から収集されたノイズラベルを分離することが多い。
通常、まず別々のノイズラベルを1つに集約し、標準的なトレーニング手法を適用する。
この文献は効果的な集約アプローチについても広く研究されている。
本稿は、この選択を再考し、個別のノイズラベルを単一のラベルに集約するか、個別に使用すべきかという疑問に対する答えを提供することを目的とする。
雑音ラベルを用いた学習に特化して設計されたものを含む,多くの人気損失関数に対する経験的リスク最小化フレームワークの下で,両手法の性能を理論的に分析する。
本定理は,雑音率が高い場合やラベラー/注釈数が不十分の場合,ラベルアグリゲーションよりもラベル分離が好ましいと結論づける。
広範な実験結果が我々の結論を裏付ける。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Robust Assignment of Labels for Active Learning with Sparse and Noisy
Annotations [0.17188280334580192]
監視された分類アルゴリズムは、世界中の多くの現実の問題を解決するために使用される。
残念なことに、多くのタスクに対して良質なアノテーションを取得することは、実際に行うには不可能か、あるいはコストがかかりすぎます。
サンプル空間のラベルのない部分を利用する2つの新しいアノテーション統一アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T19:40:41Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Category-Adaptive Label Discovery and Noise Rejection for Multi-label
Image Recognition with Partial Positive Labels [78.88007892742438]
部分正ラベル(MLR-PPL)を用いたマルチラベルモデルの訓練が注目されている。
これまでの研究では、未知のラベルを負とみなし、従来のMLRアルゴリズムを採用した。
我々は,MLR-PPLタスクを容易にするために,異なる画像間の意味的相関について検討する。
論文 参考訳(メタデータ) (2022-11-15T02:11:20Z) - Label-Noise Learning with Intrinsically Long-Tailed Data [65.41318436799993]
本稿では,本質的な長期データを用いたラベルノイズ学習のための学習フレームワークを提案する。
具体的には, 2段階の2次元試料選択法(TABASCO)を提案する。
論文 参考訳(メタデータ) (2022-08-21T07:47:05Z) - Learning with Noisy Labels by Targeted Relabeling [52.0329205268734]
クラウドソーシングプラットフォームは、ディープニューラルネットワークをトレーニングするためのデータセット収集によく使用される。
本稿では,少数のアノテーションを予約して,高い確率でラベル付け可能なエラーを明示的に緩和する手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T20:37:29Z) - Rethinking Noisy Label Models: Labeler-Dependent Noise with Adversarial
Awareness [2.1930130356902207]
本稿では,複数のラベルに対してインスタンス依存ノイズを一般化するラベルノイズの原理モデルを提案する。
ラベラーに依存したモデルでは、ラベルノイズは善良なラベルの自然な誤りと悪質なアクターによって提供される敵対的なラベルの2つのモードの下に現れます。
実世界の環境で発生する可能性のあるラベルノイズをより正確に反映する2つの逆攻撃ベクトルを提案する。
論文 参考訳(メタデータ) (2021-05-28T19:58:18Z) - Harmless label noise and informative soft-labels in supervised
classification [1.6752182911522517]
トレーニング例の手動ラベリングは、教師付き学習の一般的なプラクティスです。
ラベル処理が非自明な難易度である場合、供給されたラベルは接地ラベルと等しくなく、ラベルノイズをトレーニングデータセットに導入する。
特に、分類困難がラベルエラーの唯一の原因である場合、複数のノイズラベルセットは、分類規則の推定により多くの情報を提供することができる。
論文 参考訳(メタデータ) (2021-04-07T02:56:11Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。