論文の概要: Trustable Co-label Learning from Multiple Noisy Annotators
- arxiv url: http://arxiv.org/abs/2203.04199v1
- Date: Tue, 8 Mar 2022 16:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 13:12:40.268355
- Title: Trustable Co-label Learning from Multiple Noisy Annotators
- Title(参考訳): 複数のノイズアノテータからの信頼できるコラボラーニング
- Authors: Shikun Li, Tongliang Liu, Jiyong Tan, Dan Zeng, Shiming Ge
- Abstract要約: 監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
- 参考スコア(独自算出の注目度): 68.59187658490804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised deep learning depends on massive accurately annotated examples,
which is usually impractical in many real-world scenarios. A typical
alternative is learning from multiple noisy annotators. Numerous earlier works
assume that all labels are noisy, while it is usually the case that a few
trusted samples with clean labels are available. This raises the following
important question: how can we effectively use a small amount of trusted data
to facilitate robust classifier learning from multiple annotators? This paper
proposes a data-efficient approach, called \emph{Trustable Co-label Learning}
(TCL), to learn deep classifiers from multiple noisy annotators when a small
set of trusted data is available. This approach follows the coupled-view
learning manner, which jointly learns the data classifier and the label
aggregator. It effectively uses trusted data as a guide to generate trustable
soft labels (termed co-labels). A co-label learning can then be performed by
alternately reannotating the pseudo labels and refining the classifiers. In
addition, we further improve TCL for a special complete data case, where each
instance is labeled by all annotators and the label aggregator is represented
by multilayer neural networks to enhance model capacity. Extensive experiments
on synthetic and real datasets clearly demonstrate the effectiveness and
robustness of the proposed approach. Source code is available at
https://github.com/ShikunLi/TCL
- Abstract(参考訳): 監視されたディープラーニングは、多くの実世界のシナリオで通常非現実的な大量の注釈付き例に依存する。
典型的な選択肢は、複数のノイズアノテータから学ぶことだ。
初期の多くの研究は、全てのラベルがうるさいと仮定しているが、クリーンなラベルを持ついくつかの信頼できるサンプルが利用可能である。
少数の信頼できるデータを効果的に利用して、複数のアノテーションから堅牢な分類器の学習を容易にするにはどうすればよいのか?
本稿では,複数のノイズアノテータからの深層分類器を,信頼度の高いデータ集合が利用可能である場合に学習するための,データ効率のよい手法である「emph{Trustable Co-label Learning} (TCL)」を提案する。
このアプローチは、データ分類器とラベル集約器を共同で学習する複合ビュー学習法に従う。
信頼されたデータをガイドとして効果的に利用し、信頼できるソフトラベル(ラベル付きラベル)を生成する。
そして、擬似ラベルを交互に注釈付けし、分類器を書き換えることで、共同ラベル学習を行うことができる。
さらに,各インスタンスをすべてのアノテータでラベル付けし,ラベルアグリゲータを多層ニューラルネットワークで表現し,モデルキャパシティを向上させる,特別な完全データケースのTCLをさらに改善する。
合成および実データセットに関する大規模な実験は、提案手法の有効性と堅牢性を明確に示している。
ソースコードはhttps://github.com/ShikunLi/TCLで入手できる。
関連論文リスト
- Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - ActiveLab: Active Learning with Re-Labeling by Multiple Annotators [19.84626033109009]
ActiveLabは、バッチアクティブラーニングで次にラベルを付ける方法である。
完全に新しいものをラベル付けするよりも、サンプルを再ラベルする方が有益かどうかを自動的に見積もる。
さまざまなアクティブな学習方法よりもはるかに少ないアノテーションで、より正確な分類器を確実に訓練する。
論文 参考訳(メタデータ) (2023-01-27T17:00:11Z) - Label-Noise Learning with Intrinsically Long-Tailed Data [65.41318436799993]
本稿では,本質的な長期データを用いたラベルノイズ学習のための学習フレームワークを提案する。
具体的には, 2段階の2次元試料選択法(TABASCO)を提案する。
論文 参考訳(メタデータ) (2022-08-21T07:47:05Z) - Learning from Multiple Annotator Noisy Labels via Sample-wise Label
Fusion [17.427778867371153]
一部の現実世界のアプリケーションでは、正確なラベリングは実現できないかもしれない。
複数のノイズラベルは、データサンプル毎に複数のアノテータによって提供される。
論文 参考訳(メタデータ) (2022-07-22T20:38:20Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Active Learning in Incomplete Label Multiple Instance Multiple Label
Learning [17.5720245903743]
MIML設定におけるアクティブラーニングのための新しいバッグクラスペア方式を提案する。
我々のアプローチは、効率的かつ正確な推論を伴う識別的グラフィカルモデルに基づいている。
論文 参考訳(メタデータ) (2021-07-22T17:01:28Z) - Analysis of label noise in graph-based semi-supervised learning [2.4366811507669124]
機械学習では、目に見えないデータに一般化できるモデルを監督するためにラベルを取得する必要がある。
多くの場合、私たちのデータのほとんどはラベル付けされていない。
半教師付き学習(SSL)は、ラベルと入力データ分布の関係について強い仮定をすることで緩和する。
論文 参考訳(メタデータ) (2020-09-27T22:13:20Z) - Instance Credibility Inference for Few-Shot Learning [45.577880041135785]
ほとんどショットラーニングは、カテゴリごとに非常に限られたトレーニングデータを持つ新しいオブジェクトを認識することを目的としていない。
本稿では,未ラベルのインスタンスの分散サポートを数発の学習に活用するために,ICI (Instance Credibility Inference) と呼ばれる単純な統計手法を提案する。
我々の単純なアプローチは、広く使われている4つのショットラーニングベンチマークデータセットに基づいて、最先端の新たなデータセットを確立することができる。
論文 参考訳(メタデータ) (2020-03-26T12:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。