論文の概要: Learning from Multiple Noisy Partial Labelers
- arxiv url: http://arxiv.org/abs/2106.04530v1
- Date: Tue, 8 Jun 2021 17:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:11:17.606915
- Title: Learning from Multiple Noisy Partial Labelers
- Title(参考訳): 複数のノイズ部分ラベルからの学習
- Authors: Peilin Yu, Tiffany Ding, Stephen H. Bach
- Abstract要約: プログラムによる弱い監督は、ノイズ、ユーザ記述規則、その他のラベルの出力を組み合わせることで、手書きのトレーニングデータなしでモデルを作成する。
本稿では,複数の雑音部分ラベルの精度を推定できる確率的生成モデルを定義することによって,この能力を導入する。
簡単な実装に比べて300倍のスピードで、学習を1分で100万のサンプルにスケールアップする方法を示します。
- 参考スコア(独自算出の注目度): 8.357801312689618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Programmatic weak supervision creates models without hand-labeled training
data by combining the outputs of noisy, user-written rules and other heuristic
labelers. Existing frameworks make the restrictive assumption that labelers
output a single class label. Enabling users to create partial labelers that
output subsets of possible class labels would greatly expand the expressivity
of programmatic weak supervision. We introduce this capability by defining a
probabilistic generative model that can estimate the underlying accuracies of
multiple noisy partial labelers without ground truth labels. We prove that this
class of models is generically identifiable up to label swapping under mild
conditions. We also show how to scale up learning to 100k examples in one
minute, a 300X speed up compared to a naive implementation. We evaluate our
framework on three text classification and six object classification tasks. On
text tasks, adding partial labels increases average accuracy by 9.6 percentage
points. On image tasks, we show that partial labels allow us to approach some
zero-shot object classification problems with programmatic weak supervision by
using class attributes as partial labelers. Our framework is able to achieve
accuracy comparable to recent embedding-based zero-shot learning methods using
only pre-trained attribute detectors
- Abstract(参考訳): プログラムによる弱い監督は、ノイズやユーザ記述規則、その他のヒューリスティックなラベルの出力を組み合わせることで、手書きのトレーニングデータを持たないモデルを生成する。
既存のフレームワークは、ラベル付け者が単一のクラスラベルを出力するという制限的な仮定を定めている。
ユーザーがクラスラベルのサブセットを出力する部分的なラベルを作成できるようにすると、プログラムによる弱い監督の表現力が大幅に向上する。
本稿では,複数のノイズのある部分ラベルの精度を,基礎となる真理ラベルなしで推定できる確率的生成モデルを定義することによって,この能力を導入する。
このモデルのクラスは、穏やかな条件下でラベルスワッピングまで汎用的に識別可能であることを証明します。
また、簡単な実装に比べて300倍のスピードで、学習を1分で100万のサンプルにスケールアップする方法も示しています。
我々は3つのテキスト分類と6つのオブジェクト分類タスクの枠組みを評価する。
テキストタスクでは、部分ラベルを追加すると平均精度が9.6ポイント向上する。
画像タスクでは,クラス属性を部分ラベラーとして使用することにより,ゼロショットオブジェクトの分類問題に対して,プログラム的に弱い監督を施すことができることを示す。
本フレームワークは,事前学習された属性検出器のみを用いて,組み込み型ゼロショット学習手法に匹敵する精度を実現することができる。
関連論文リスト
- Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Substituting Data Annotation with Balanced Updates and Collective Loss
in Multi-label Text Classification [19.592985329023733]
MLTC(Multi-label text classification)は、あるテキストに複数のラベルを割り当てるタスクである。
本報告では,MLTCの問題点を,ラベル数に比例して,利用可能な監視信号の大きさが線形であるアノテーションフリーおよび希少アノテーション設定で検討する。
提案手法は,(1)事前学習した言語モデルを用いて,入力テキストを事前ラベル候補の集合にマッピングし,(2)ラベル記述による署名付きラベル依存グラフの計算,(3)ラベル依存グラフに沿ったメッセージパスによる事前ラベル候補の更新を行う。
論文 参考訳(メタデータ) (2023-09-24T04:12:52Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - AutoWS: Automated Weak Supervision Framework for Text Classification [1.748907524043535]
本稿では、ドメインエキスパートへの依存を減らしつつ、弱い監督プロセスの効率を高めるための新しい枠組みを提案する。
本手法では,ラベルクラス毎にラベル付きサンプルの小さなセットが必要であり,多数のラベル付きデータにノイズ付きラベルを割り当てるラベル付き関数のセットを自動生成する。
論文 参考訳(メタデータ) (2023-02-07T07:12:05Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - All Labels Are Not Created Equal: Enhancing Semi-supervision via Label
Grouping and Co-training [32.45488147013166]
Pseudo-labelingは、半教師付き学習(SSL)の鍵となるコンポーネントである
本論文では,ラベルセマンティクスとコトレーニングを活用した問題解決手法であるSemCoを提案する。
提案手法は,1000個のラベル付きサンプルを持つミニイメージネットデータセットにおける5.6%の精度向上を含む,様々なsslタスクにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-04-12T07:33:16Z) - Exploiting Context for Robustness to Label Noise in Active Learning [47.341705184013804]
本稿では,どのラベルが間違っているのかをシステムがどのように識別するか,ラベルノイズの負の影響を最小限に抑えるために,マルチクラスアクティブラーニングシステムをどのように適用できるか,といった課題に対処する。
我々は、これらの関係を符号化し、ノイズラベルが利用できる場合にグラフ上の新しい信念を得るために、ラベルなしデータのグラフィカルな表現を構築した。
これはシーン分類、アクティビティ分類、文書分類の3つの異なる応用で実証されている。
論文 参考訳(メタデータ) (2020-10-18T18:59:44Z) - Structured Prediction with Partial Labelling through the Infimum Loss [85.4940853372503]
弱い監督の目標は、収集コストの安いラベル付け形式のみを使用してモデルを学習できるようにすることである。
これは、各データポイントに対して、実際のものを含むラベルのセットとして、監督がキャストされる不完全なアノテーションの一種です。
本稿では、構造化された予測と、部分的なラベリングを扱うための無限損失の概念に基づく統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-02T13:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。