論文の概要: Eliciting and Learning with Soft Labels from Every Annotator
- arxiv url: http://arxiv.org/abs/2207.00810v1
- Date: Sat, 2 Jul 2022 12:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 14:05:14.757103
- Title: Eliciting and Learning with Soft Labels from Every Annotator
- Title(参考訳): すべてのアノテーションからのソフトラベルの引用と学習
- Authors: Katherine M. Collins, Umang Bhatt, Adrian Weller
- Abstract要約: 個々のアノテータからソフトラベルを効率よく抽出することに注力する。
ラベルによる学習は,従来の手法と同等のモデル性能を達成できることを実証する。
- 参考スコア(独自算出の注目度): 31.10635260890126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The labels used to train machine learning (ML) models are of paramount
importance. Typically for ML classification tasks, datasets contain hard
labels, yet learning using soft labels has been shown to yield benefits for
model generalization, robustness, and calibration. Earlier work found success
in forming soft labels from multiple annotators' hard labels; however, this
approach may not converge to the best labels and necessitates many annotators,
which can be expensive and inefficient. We focus on efficiently eliciting soft
labels from individual annotators. We collect and release a dataset of soft
labels for CIFAR-10 via a crowdsourcing study ($N=242$). We demonstrate that
learning with our labels achieves comparable model performance to prior
approaches while requiring far fewer annotators. Our elicitation methodology
therefore shows promise towards enabling practitioners to enjoy the benefits of
improved model performance and reliability with fewer annotators, and serves as
a guide for future dataset curators on the benefits of leveraging richer
information, such as categorical uncertainty, from individual annotators.
- Abstract(参考訳): 機械学習(ML)モデルのトレーニングに使用されるラベルは、非常に重要である。
ML分類タスクの場合、データセットはハードラベルを含むが、ソフトラベルを用いた学習はモデルの一般化、堅牢性、キャリブレーションの恩恵をもたらすことが示されている。
初期の研究は、複数のアノテータのハードラベルからソフトラベルを作ることに成功したが、このアプローチは最高のラベルに収束せず、多くのアノテータを必要とする可能性がある。
個々のアノテータからソフトラベルを効率よく抽出することに注力する。
クラウドソーシング調査(N=242ドル)を通じて,CIFAR-10用のソフトラベルのデータセットを収集し,リリースする。
ラベルによる学習は,アノテータをはるかに少なくしながら,先行的なアプローチに匹敵するモデル性能を達成できることを実証する。
それゆえ,本手法は,アノテータの少ないモデル性能と信頼性の向上を実践者が享受できる可能性を示し,個々のアノテータからカテゴリ不確実性などのリッチな情報を活用することによる将来のデータセットキュレーターの指針となる。
関連論文リスト
- Learning with Confidence: Training Better Classifiers from Soft Labels [0.0]
教師付き機械学習では、モデルは通常、ハードラベルを持つデータ、すなわちクラスメンバーシップの明確な割り当てを用いて訓練される。
クラスラベル上の離散確率分布として表されるラベルの不確実性を組み込むことで,分類モデルの予測性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2024-09-24T13:12:29Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - A Benchmark Generative Probabilistic Model for Weak Supervised Learning [2.0257616108612373]
アノテーションの負担を軽減するために、弱監視学習アプローチが開発されている。
遅延変数モデル(PLVM)が4つのデータセット間で最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2023-03-31T07:06:24Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - End-to-End Learning from Noisy Crowd to Supervised Machine Learning
Models [6.278267504352446]
我々は、ハイブリッドインテリジェンス、すなわち深層モデルと人間の専門家を組み合わせることで、ノイズの多いクラウドソースデータからエンドツーエンドの学習フレームワークを設計することを提唱する。
ラベルアグリゲーションは,アノテータの混乱行列を推定して学習プロセスを改善することにより,どのような効果があるかを示す。
我々は、SVMとディープニューラルネットワークを用いて、複数の画像データセット上での戦略の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-13T09:48:30Z) - Active Learning for Noisy Data Streams Using Weak and Strong Labelers [3.9370369973510746]
我々は、人間のラベリング能力に触発された、新しい弱くて強力なラベリング問題を考える。
そこで本研究では,フィルタリング,多様性の追加,情報的サンプル選択,ラベル抽出の4段階からなるオンライン能動学習アルゴリズムを提案する。
我々は,個々のサンプルの情報とモデル信頼度を組み合わせることで,情報ゲインを測定する決定関数を導出する。
論文 参考訳(メタデータ) (2020-10-27T09:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。