論文の概要: Using Self-Supervised Pretext Tasks for Active Learning
- arxiv url: http://arxiv.org/abs/2201.07459v1
- Date: Wed, 19 Jan 2022 07:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 20:22:13.702411
- Title: Using Self-Supervised Pretext Tasks for Active Learning
- Title(参考訳): 能動学習におけるセルフ・スーパーバイザード・プレテキスト・タスクの利用
- Authors: John Seon Keun Yi, Minseok Seo, Jongchan Park, Dong-Geol Choi
- Abstract要約: 本稿では,自己教師付きプレテキストタスクとユニークなデータサンプリング機能を利用して,困難かつ代表的なデータを選択する,新しいアクティブラーニング手法を提案する。
プレテキストタスク学習者は、未ラベルのセットでトレーニングされ、未ラベルのデータは、そのプレテキストタスクの損失によって、バッチにソートされ、グループ化される。
各イテレーションでは、メインタスクモデルを使用して、アノテートされるバッチで最も不確実なデータをサンプリングする。
- 参考スコア(独自算出の注目度): 7.214674613451605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Labeling a large set of data is expensive. Active learning aims to tackle
this problem by asking to annotate only the most informative data from the
unlabeled set. We propose a novel active learning approach that utilizes
self-supervised pretext tasks and a unique data sampler to select data that are
both difficult and representative. We discover that the loss of a simple
self-supervised pretext task, such as rotation prediction, is closely
correlated to the downstream task loss. The pretext task learner is trained on
the unlabeled set, and the unlabeled data are sorted and grouped into batches
by their pretext task losses. In each iteration, the main task model is used to
sample the most uncertain data in a batch to be annotated. We evaluate our
method on various image classification and segmentation benchmarks and achieve
compelling performances on CIFAR10, Caltech-101, ImageNet, and CityScapes.
- Abstract(参考訳): 大量のデータのラベル付けは高価です。
アクティブラーニングは、ラベルなし集合から最も情報性の高いデータのみに注釈を付けることでこの問題に対処することを目的としている。
本稿では,自己教師付きプリテキストタスクとユニークなデータサンプルラを用いて,難易度と代表性を兼ね備えたデータを選択する新しいアクティブラーニング手法を提案する。
回転予測などの単純な自己教師付き述語タスクの損失は,下流タスクの損失と密接に関連していることがわかった。
プリテキストタスク学習者は、ラベルなしのセットでトレーニングされ、ラベルなしのデータは、プリテキストタスクの損失によってソートされ、バッチにグループ化される。
各イテレーションでは、メインタスクモデルを使用して、アノテートされるバッチ内の最も不確実なデータをサンプリングする。
CIFAR10, Caltech-101, ImageNet, CityScapesにおいて, 画像分類とセグメンテーションのベンチマークを行い, 性能評価を行った。
関連論文リスト
- Semi-Supervised Variational Adversarial Active Learning via Learning to Rank and Agreement-Based Pseudo Labeling [6.771578432805963]
アクティブラーニングは、ラベルなしサンプルの選択を自動化することで、データラベリングに関わる労力を軽減することを目的としている。
トレーニング中に大量のラベルのないデータの使用を大幅に改善する新しい手法を導入する。
様々な画像分類およびセグメンテーションベンチマークデータセットにおける技術状況に対するアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-23T00:35:07Z) - Don't freeze: Finetune encoders for better Self-Supervised HAR [5.008235182488304]
簡単な変更 — 表現を凍結するのではなく — によって、プリテキストタスク間でパフォーマンスが大幅に向上することを示す。
この改善は、調査された4つのデータセット、および4つのプレテキストタスクすべてで発見され、ラベル付きデータの量に比例する。
論文 参考訳(メタデータ) (2023-07-03T17:23:34Z) - Behavior Retrieval: Few-Shot Imitation Learning by Querying Unlabeled
Datasets [73.2096288987301]
オフラインでラベル付けされていないデータセットから、少量のダウンストリーム専門家データを用いて、関連する振る舞いを選択的にクエリする簡単なアプローチを提案する。
提案手法では,タスクへの関連する遷移のみを問合せし,サブ最適データやタスク非関連データをフィルタリングする。
我々の単純なクエリ手法は、画像からシミュレーションされた実際のロボット操作タスクに対して、より複雑な目標条件の手法よりも20%優れています。
論文 参考訳(メタデータ) (2023-04-18T05:42:53Z) - STUNT: Few-shot Tabular Learning with Self-generated Tasks from
Unlabeled Tables [64.0903766169603]
我々は,Unlabeled Tables (STUNT) からの自己生成タスクを作成した,数発のセミ教師付き学習のためのフレームワークを提案する。
私たちのキーとなるアイデアは、ランダムに選択された列をターゲットラベルとして扱うことで、多様なショットタスクを自己生成することです。
次に、メタラーニング手法を用いて、構築されたタスクで一般化可能な知識を学習する。
論文 参考訳(メタデータ) (2023-03-02T02:37:54Z) - Learning Instructions with Unlabeled Data for Zero-Shot Cross-Task
Generalization [68.91386402390403]
本研究では,学習中の命令をよりよく活用するために,Unlabeled Data Augmented Instruction Tuning (UDIT)を提案する。
タスクやデータセットのさまざまなシナリオにおいて,UDITの有効性を示すための広範な実験を行う。
論文 参考訳(メタデータ) (2022-10-17T15:25:24Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Budget-aware Few-shot Learning via Graph Convolutional Network [56.41899553037247]
本稿では,いくつかの例から新しい視覚概念を学習することを目的とした,数ショット学習の課題に取り組む。
数ショット分類における一般的な問題設定は、データラベルの取得においてランダムサンプリング戦略を前提としている。
そこで我々は,新しい対象カテゴリーの学習を目的とした,予算に配慮した数発の学習問題を新たに導入する。
論文 参考訳(メタデータ) (2022-01-07T02:46:35Z) - Investigating a Baseline Of Self Supervised Learning Towards Reducing
Labeling Costs For Image Classification [0.0]
この研究は、Kaggle.comの cat-vs-dogs データセット Mnist と Fashion-Mnist を実装し、自己教師型学習タスクを調査している。
その結果、自己教師型学習におけるプレテキスト処理は、下流分類タスクの約15%の精度を向上させることがわかった。
論文 参考訳(メタデータ) (2021-08-17T06:43:05Z) - Learning to Rank for Active Learning: A Listwise Approach [36.72443179449176]
アクティブラーニングは、大量のデータを空腹のアプリケーションにラベル付けする作業を緩和する代替手段として登場した。
本研究では,単純なリストワイズ手法を用いて,損失予測モジュールの構造を再考する。
4つのデータセットに対する実験結果から,本手法は画像分類と回帰処理の両方において,最近の最先端の能動的学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-31T21:05:16Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Task-Aware Variational Adversarial Active Learning [42.334671410592065]
本稿では,タスク非依存のVAALを修飾するタスク対応可変逆数AL(TA-VAAL)を提案する。
提案するTA-VAALは、バランスの取れたラベルとバランスの取れないラベルの分類のための様々なベンチマークデータセットにおいて、最先端の性能を向上する。
論文 参考訳(メタデータ) (2020-02-11T22:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。