論文の概要: Active WeaSuL: Improving Weak Supervision with Active Learning
- arxiv url: http://arxiv.org/abs/2104.14847v1
- Date: Fri, 30 Apr 2021 08:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 20:51:25.873063
- Title: Active WeaSuL: Improving Weak Supervision with Active Learning
- Title(参考訳): Active WeaSuL: アクティブラーニングによる弱スーパービジョンの改善
- Authors: Samantha Biegel, Rafah El-Khatib, Luiz Otavio Vilas Boas Oliveira, Max
Baak, Nanne Aben
- Abstract要約: アクティブラーニングを弱い監督に組み込んだアプローチであるActive WeaSuLを提案します。
我々は,1) 弱いラベルの組み合わせを通知し改善する弱監督損失関数の修正,2) 専門家ラベルがどのデータポイントに最も有用かを決定するmaxKL分散サンプリング戦略,の2つの貢献を行う。
- 参考スコア(独自算出の注目度): 2.624902795082451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The availability of labelled data is one of the main limitations in machine
learning. We can alleviate this using weak supervision: a framework that uses
expert-defined rules $\boldsymbol{\lambda}$ to estimate probabilistic labels
$p(y|\boldsymbol{\lambda})$ for the entire data set. These rules, however, are
dependent on what experts know about the problem, and hence may be inaccurate
or may fail to capture important parts of the problem-space. To mitigate this,
we propose Active WeaSuL: an approach that incorporates active learning into
weak supervision. In Active WeaSuL, experts do not only define rules, but they
also iteratively provide the true label for a small set of points where the
weak supervision model is most likely to be mistaken, which are then used to
better estimate the probabilistic labels. In this way, the weak labels provide
a warm start, which active learning then improves upon. We make two
contributions: 1) a modification of the weak supervision loss function, such
that the expert-labelled data inform and improve the combination of weak
labels; and 2) the maxKL divergence sampling strategy, which determines for
which data points expert labelling is most beneficial. Our experiments show
that when the budget for labelling data is limited (e.g. $\leq 60$ data
points), Active WeaSuL outperforms weak supervision, active learning, and
competing strategies, with only a handful of labelled data points. This makes
Active WeaSuL ideal for situations where obtaining labelled data is difficult.
- Abstract(参考訳): ラベル付きデータの可用性は、マシンラーニングの主要な制限のひとつだ。
専門家定義のルールを使用するフレームワークである$\boldsymbol{\lambda}$を使用して、データセット全体の確率ラベルを$p(y|\boldsymbol{\lambda})$と見積もることができる。
しかしながら、これらのルールは、専門家が問題について知っていることに依存するため、不正確であるか、あるいは問題空間の重要な部分を捉えることができない可能性がある。
これを軽減するために,能動学習を弱監督に組み込む手法であるActive WeaSuLを提案する。
Active WeaSuLでは、専門家はルールを定義するだけでなく、弱い監督モデルが誤りやすい小さな点に対して真のラベルを反復的に提供し、確率的ラベルをより正確に見積もる。
このようにして、弱いラベルはウォームスタートを提供し、アクティブラーニングによって改善される。
我々は,1) 弱いラベルの組み合わせを通知し改善する弱監督損失関数の修正,2) 専門家ラベルがどのデータポイントに最も有用かを決定するmaxKL分散サンプリング戦略,の2つの貢献を行う。
私たちの実験は、ラベル付けデータの予算が限られている場合(例えば)に示します。
データポイントが$$$\leq 60$)、Active WeaSuLは、少数のラベル付きデータポイントだけで、弱い監視、アクティブラーニング、競合戦略を上回っている。
これにより、ラベル付きデータを取得するのが難しい状況では、Active WeaSuLが理想的になる。
関連論文リスト
- All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Improved Adaptive Algorithm for Scalable Active Learning with Weak
Labeler [89.27610526884496]
Weak Labeler Active Cover (WL-AC)は、要求される精度を維持しながら、クエリの複雑さを低減するために、低品質の弱いラベルを堅牢に活用することができる。
受動学習と同一の精度を維持しつつラベル数を著しく削減し, 劣化したMNISTデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2022-11-04T02:52:54Z) - Training Subset Selection for Weak Supervision [17.03788288165262]
弱いラベル付きデータの量と弱いラベルの精度とのトレードオフを示す。
我々は、事前訓練されたデータ表現とカット統計を組み合わせ、弱いラベル付きトレーニングデータの高品質なサブセットを選択する。
弱ラベルの少ないデータを使用することで、ベンチマークタスクにおいて、弱い監視パイプラインの精度が最大19%向上する。
論文 参考訳(メタデータ) (2022-06-06T21:31:32Z) - Data Consistency for Weakly Supervised Learning [15.365232702938677]
機械学習モデルのトレーニングには、大量の人間が注釈付けしたデータを使用する。
本稿では、雑音ラベル、すなわち弱い信号を処理する新しい弱監督アルゴリズムを提案する。
本研究では,テキストと画像の分類作業において,最先端の弱い監督手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2022-02-08T16:48:19Z) - How to Leverage Unlabeled Data in Offline Reinforcement Learning [125.72601809192365]
オフライン強化学習(RL)は、静的データセットから制御ポリシーを学ぶことができるが、標準のRLメソッドと同様に、移行毎に報酬アノテーションを必要とする。
1つの自然な解決策は、ラベル付けされたデータから報酬関数を学習し、ラベル付けされていないデータをラベル付けすることである。
ラベルのないデータに単純に報酬をゼロにする方が、効果的なデータ共有につながる。
論文 参考訳(メタデータ) (2022-02-03T18:04:54Z) - Self-Supervised Learning from Semantically Imprecise Data [7.24935792316121]
動物」や「鳥」などの不正確なラベルから学ぶことは、熟練したラベル付きトレーニングデータが乏しい場合に重要な機能です。
CHILLAXはこの課題に取り組むために最近提案された方法です。
制約外挿を用いた自己教師型スキームでCHILLAXを拡張して擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-04-22T07:26:14Z) - Active Learning for Noisy Data Streams Using Weak and Strong Labelers [3.9370369973510746]
我々は、人間のラベリング能力に触発された、新しい弱くて強力なラベリング問題を考える。
そこで本研究では,フィルタリング,多様性の追加,情報的サンプル選択,ラベル抽出の4段階からなるオンライン能動学習アルゴリズムを提案する。
我々は,個々のサンプルの情報とモデル信頼度を組み合わせることで,情報ゲインを測定する決定関数を導出する。
論文 参考訳(メタデータ) (2020-10-27T09:18:35Z) - Strength from Weakness: Fast Learning Using Weak Supervision [81.41106207042948]
弱いラベルへのアクセスは、強いタスクの学習速度を、$mathcalO(nicefrac1n)$の速さに著しく加速させることができる。
実際の加速は、利用可能な弱いラベルの数と、2つのタスク間の関係に継続的に依存する。
論文 参考訳(メタデータ) (2020-02-19T22:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。