論文の概要: ActiveLab: Active Learning with Re-Labeling by Multiple Annotators
- arxiv url: http://arxiv.org/abs/2301.11856v1
- Date: Fri, 27 Jan 2023 17:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 14:52:40.962088
- Title: ActiveLab: Active Learning with Re-Labeling by Multiple Annotators
- Title(参考訳): ActiveLab: 複数のアノテーションによる再ラベルによるアクティブラーニング
- Authors: Hui Wen Goh, Jonas Mueller
- Abstract要約: ActiveLabは、バッチアクティブラーニングで次にラベルを付ける方法である。
完全に新しいものをラベル付けするよりも、サンプルを再ラベルする方が有益かどうかを自動的に見積もる。
さまざまなアクティブな学習方法よりもはるかに少ないアノテーションで、より正確な分類器を確実に訓練する。
- 参考スコア(独自算出の注目度): 19.84626033109009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world data labeling applications, annotators often provide imperfect
labels. It is thus common to employ multiple annotators to label data with some
overlap between their examples. We study active learning in such settings,
aiming to train an accurate classifier by collecting a dataset with the fewest
total annotations. Here we propose ActiveLab, a practical method to decide what
to label next that works with any classifier model and can be used in
pool-based batch active learning with one or multiple annotators. ActiveLab
automatically estimates when it is more informative to re-label examples vs.
labeling entirely new ones. This is a key aspect of producing high quality
labels and trained models within a limited annotation budget. In experiments on
image and tabular data, ActiveLab reliably trains more accurate classifiers
with far fewer annotations than a wide variety of popular active learning
methods.
- Abstract(参考訳): 現実世界のデータラベリングアプリケーションでは、アノテータはしばしば不完全なラベルを提供する。
したがって、複数のアノテータを使用してデータにラベルを付けることが一般的である。
我々はこのような環境で能動的学習を研究し、最も少ない全アノテーションでデータセットを収集して正確な分類器を訓練することを目的としている。
ここでは、任意の分類器モデルで動作し、1つまたは複数のアノテーションを用いたプールベースのバッチアクティブラーニングで使用できる、次にラベルを決定するための実用的な方法であるActiveLabを提案する。
ActiveLabは、完全に新しいものをラベル付けするよりも、サンプルを再ラベルする方が有益なタイミングを自動的に見積もる。
これは、限られたアノテーション予算内で高品質なラベルとトレーニングされたモデルを作成する上で重要な側面です。
画像と表のデータの実験では、ActiveLabは、さまざまな人気のあるアクティブな学習方法よりもはるかに少ないアノテーションで、より正確な分類器を確実に訓練している。
関連論文リスト
- Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Robust Assignment of Labels for Active Learning with Sparse and Noisy
Annotations [0.17188280334580192]
監視された分類アルゴリズムは、世界中の多くの現実の問題を解決するために使用される。
残念なことに、多くのタスクに対して良質なアノテーションを取得することは、実際に行うには不可能か、あるいはコストがかかりすぎます。
サンプル空間のラベルのない部分を利用する2つの新しいアノテーション統一アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T19:40:41Z) - Exploiting Diversity of Unlabeled Data for Label-Efficient
Semi-Supervised Active Learning [57.436224561482966]
アクティブラーニング(英: Active Learning)は、ラベリングのための最も重要なサンプルを選択することで、高価なラベリングの問題に対処する研究分野である。
アクティブな学習環境における初期ラベル付けのための最も情報性の高いサンプル群を選択するために,多様性に基づく新しい初期データセット選択アルゴリズムを提案する。
また、一貫性に基づく埋め込みの多様性に基づくサンプリングを用いた、新しいアクティブな学習クエリ戦略を提案する。
論文 参考訳(メタデータ) (2022-07-25T16:11:55Z) - Learning from Multiple Annotator Noisy Labels via Sample-wise Label
Fusion [17.427778867371153]
一部の現実世界のアプリケーションでは、正確なラベリングは実現できないかもしれない。
複数のノイズラベルは、データサンプル毎に複数のアノテータによって提供される。
論文 参考訳(メタデータ) (2022-07-22T20:38:20Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - A new data augmentation method for intent classification enhancement and
its application on spoken conversation datasets [23.495743195811375]
本稿では,Nearest Neighbors Scores Improvement (NNSI)アルゴリズムを提案する。
NNSIは、高度に曖昧なサンプルを自動的に選択し、それらを高精度にラベルすることで、手動ラベリングの必要性を減らす。
2つの大規模実生活音声対話システムにおけるNNSIの使用を実演した。
論文 参考訳(メタデータ) (2022-02-21T11:36:19Z) - Active Learning in Incomplete Label Multiple Instance Multiple Label
Learning [17.5720245903743]
MIML設定におけるアクティブラーニングのための新しいバッグクラスペア方式を提案する。
我々のアプローチは、効率的かつ正確な推論を伴う識別的グラフィカルモデルに基づいている。
論文 参考訳(メタデータ) (2021-07-22T17:01:28Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Few-shot Learning for Multi-label Intent Detection [59.66787898744991]
State-of-the-art work estimates label-instancelevance scores and using threshold to select multiple associated intent labels。
2つのデータセットの実験により、提案モデルが1ショットと5ショットの両方の設定において強いベースラインを著しく上回ることが示された。
論文 参考訳(メタデータ) (2020-10-11T14:42:18Z) - Interaction Matching for Long-Tail Multi-Label Classification [57.262792333593644]
既存のマルチラベル分類モデルにおいて,制約に対処するためのエレガントで効果的なアプローチを提案する。
ソフトなn-gram相互作用マッチングを実行することで、ラベルと自然言語記述をマッチングする。
論文 参考訳(メタデータ) (2020-05-18T15:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。