論文の概要: PAL : Pretext-based Active Learning
- arxiv url: http://arxiv.org/abs/2010.15947v3
- Date: Sun, 28 Mar 2021 21:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:28:06.679111
- Title: PAL : Pretext-based Active Learning
- Title(参考訳): PAL : テキストに基づくアクティブラーニング
- Authors: Shubhang Bhatnagar, Sachin Goyal, Darshan Tank, Amit Sethi
- Abstract要約: 提案手法は,従来の提案手法よりも,誤ラベルに頑健な深層ニューラルネットワークの能動的学習手法を提案する。
ラベルのないサンプルを選別するために、別ネットワークを使用します。
その結果,ラベルノイズの欠如による競合精度も向上した。
- 参考スコア(独自算出の注目度): 2.869739951301252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of pool-based active learning is to judiciously select a fixed-sized
subset of unlabeled samples from a pool to query an oracle for their labels, in
order to maximize the accuracy of a supervised learner. However, the unsaid
requirement that the oracle should always assign correct labels is unreasonable
for most situations. We propose an active learning technique for deep neural
networks that is more robust to mislabeling than the previously proposed
techniques. Previous techniques rely on the task network itself to estimate the
novelty of the unlabeled samples, but learning the task (generalization) and
selecting samples (out-of-distribution detection) can be conflicting goals. We
use a separate network to score the unlabeled samples for selection. The
scoring network relies on self-supervision for modeling the distribution of the
labeled samples to reduce the dependency on potentially noisy labels. To
counter the paucity of data, we also deploy another head on the scoring network
for regularization via multi-task learning and use an unusual self-balancing
hybrid scoring function. Furthermore, we divide each query into sub-queries
before labeling to ensure that the query has diverse samples. In addition to
having a higher tolerance to mislabeling of samples by the oracle, the
resultant technique also produces competitive accuracy in the absence of label
noise. The technique also handles the introduction of new classes on-the-fly
well by temporarily increasing the sampling rate of these classes.
- Abstract(参考訳): プールベースのアクティブラーニングの目標は、教師付き学習者の精度を最大化するために、プールからラベルのないサンプルの固定サイズのサブセットを選択して、oracleにラベルを問い合わせることである。
しかし、oracleが常に正しいラベルを割り当てるべきという不必要な要件は、ほとんどの状況において理不尽です。
提案手法は,従来の提案手法よりも,誤ラベルに頑健な深層ニューラルネットワークの能動的学習手法を提案する。
従来の手法は、未ラベルサンプルの新規性を推定するためにタスクネットワーク自体に依存していたが、タスクの学習(一般化)とサンプルの選択(分布外検出)は相反する。
ラベルのないサンプルを選別するために、別ネットワークを使用します。
スコアリングネットワークは、ラベル付きサンプルの分布をモデル化し、潜在的にノイズの多いラベルへの依存性を減らすための自己スーパービジョンに依存している。
また,多タスク学習による正規化のためのスコアリングネットワーク上に別のヘッドを配置し,異常な自己分散型ハイブリットスコアリング機能を利用する。
さらに,各クエリをラベル付けする前にサブクエリに分割することで,クエリが多種多様なサンプルを持つことを保証する。
オラクルによるサンプルの誤ラベルに対する耐性が高いことに加えて、この結果の手法はラベルノイズのない場合の競合精度も生み出す。
この技術は、これらのクラスのサンプリング率を一時的に増加させることで、新しいクラスをオンザフライで導入する処理も行う。
関連論文リスト
- Multi-Label Adaptive Batch Selection by Highlighting Hard and Imbalanced Samples [9.360376286221943]
本稿では,多ラベル深層学習モデルに適した適応バッチ選択アルゴリズムを提案する。
提案手法は, ランダムなバッチ選択よりも高速に収束し, 性能が向上する。
論文 参考訳(メタデータ) (2024-03-27T02:00:18Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Robust Assignment of Labels for Active Learning with Sparse and Noisy
Annotations [0.17188280334580192]
監視された分類アルゴリズムは、世界中の多くの現実の問題を解決するために使用される。
残念なことに、多くのタスクに対して良質なアノテーションを取得することは、実際に行うには不可能か、あるいはコストがかかりすぎます。
サンプル空間のラベルのない部分を利用する2つの新しいアノテーション統一アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T19:40:41Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Deep Active Learning with Contrastive Learning Under Realistic Data Pool
Assumptions [2.578242050187029]
アクティブラーニングは、モデルが望まれる精度を迅速に到達できるようにする、ラベルのないデータプールから最も情報性の高いデータを特定することを目的としている。
既存のアクティブラーニング手法の多くは、未ラベルのデータプールに対象タスクに関連するサンプルのみが存在する理想的な環境で評価されている。
我々は,不明瞭でタスク非関連なアウト・オブ・ディストリビューションと,イン・ディストリビューション・サンプルを含む,新しいアクティブ・ラーニング・ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-03-25T10:46:10Z) - Combining Self-labeling with Selective Sampling [2.0305676256390934]
この研究は、選択的サンプリングシナリオにおける自己ラベル技術とアクティブラーニングを組み合わせたものである。
選択したクラスに対してバイアスを課すことにより,自己ラベルの適用がパフォーマンスに悪影響を及ぼすことを示す。
提案手法は,現在の選択的サンプリング手法と一致し,より良い結果が得られる。
論文 参考訳(メタデータ) (2023-01-11T11:58:45Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z) - Deep Active Learning via Open Set Recognition [0.0]
多くのアプリケーションでは、データは簡単に取得できるが、顕著な例を示すのに高価で時間がかかる。
オープンセット認識問題として能動的学習を定式化する。
現在のアクティブな学習方法とは異なり、我々のアルゴリズムはタスクラベルを必要とせずにタスクを学習することができる。
論文 参考訳(メタデータ) (2020-07-04T22:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。