論文の概要: On Initial Pools for Deep Active Learning
- arxiv url: http://arxiv.org/abs/2011.14696v1
- Date: Mon, 30 Nov 2020 11:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:59:00.758519
- Title: On Initial Pools for Deep Active Learning
- Title(参考訳): 深層学習のための初期プールについて
- Authors: Akshay L Chandra, Sai Vikas Desai, Chaitanya Devaguptapu, Vineeth N
Balasubramanian
- Abstract要約: アクティブラーニング(AL)技術は、与えられたタスクのためにモデルをトレーニングするために必要なトレーニングデータを最小限にすることを目的としている。
プールベースのALテクニックは、最初は小さな初期ラベル付きプールから始まり、次にラベル付けのための最も有益なサンプルのバッチを反復的に選択する。
知的にサンプル化された初期ラベル付きプールが深いAL性能を向上できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 18.615560631982355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Learning (AL) techniques aim to minimize the training data required to
train a model for a given task. Pool-based AL techniques start with a small
initial labeled pool and then iteratively pick batches of the most informative
samples for labeling. Generally, the initial pool is sampled randomly and
labeled to seed the AL iterations. While recent` studies have focused on
evaluating the robustness of various query functions in AL, little to no
attention has been given to the design of the initial labeled pool. Given the
recent successes of learning representations in self-supervised/unsupervised
ways, we propose to study if an intelligently sampled initial labeled pool can
improve deep AL performance. We will investigate the effect of intelligently
sampled initial labeled pools, including the use of self-supervised and
unsupervised strategies, on deep AL methods. We describe our experimental
details, implementation details, datasets, performance metrics as well as
planned ablation studies in this proposal. If intelligently sampled initial
pools improve AL performance, our work could make a positive contribution to
boosting AL performance with no additional annotation, developing datasets with
lesser annotation cost in general, and promoting further research in the use of
unsupervised learning methods for AL.
- Abstract(参考訳): アクティブラーニング(al)テクニックは、与えられたタスクのモデルのトレーニングに必要なトレーニングデータを最小化することを目的としている。
プールベースのalテクニックは、小さな初期ラベル付きプールから始まり、ラベル付けのために最も有用なサンプルのバッチを反復的に選択する。
一般に、初期プールはランダムにサンプリングされ、alイテレーションをシードするためにラベル付けされる。
近年,alにおける各種問合せ関数のロバスト性評価に注目が集まっているが,初期ラベル付きプールの設計にはほとんど注目されていない。
近年,自己指導型・教師なし型の学習表現の成功を踏まえ,インテリジェントな初期ラベル付きプールが深いAL性能を向上できるかどうかを検討する。
我々は,自己監督型および非監督型戦略の利用を含む,インテリジェントな初期ラベル付きプールの深層AL手法への影響について検討する。
本提案では,実験の詳細,実装の詳細,データセット,性能指標,および計画されたアブレーション研究について述べる。
インテリジェントにサンプルされた初期プールがalパフォーマンスを改善するならば、追加のアノテーションなしでalパフォーマンスの向上、より少ないアノテーションコストでデータセットの開発、alのための教師なし学習メソッドの使用に関するさらなる研究の促進に、私たちの研究は前向きに貢献できるでしょう。
関連論文リスト
- Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - On the Limitations of Simulating Active Learning [32.34440406689871]
アクティブラーニング(アクティブラーニング、英: Active Learning、AL)は、人間のアノテーションのための情報的未ラベルデータを反復的に選択する、ヒューマン・アンド・モデル・イン・ザ・ループのパラダイムである。
この障害に対する簡単な修正は、ラベル付きで公開されているデータセットをラベルなしデータのプールとして扱うことで、ALをシミュレートすることだ。
我々は、利用可能なラベル付きデータセット上でのALアルゴリズムの評価は、実データにおけるそれらの有効性に対して低いバウンドを与えるかもしれないと論じる。
論文 参考訳(メタデータ) (2023-05-21T22:52:13Z) - Deep Active Learning with Contrastive Learning Under Realistic Data Pool
Assumptions [2.578242050187029]
アクティブラーニングは、モデルが望まれる精度を迅速に到達できるようにする、ラベルのないデータプールから最も情報性の高いデータを特定することを目的としている。
既存のアクティブラーニング手法の多くは、未ラベルのデータプールに対象タスクに関連するサンプルのみが存在する理想的な環境で評価されている。
我々は,不明瞭でタスク非関連なアウト・オブ・ディストリビューションと,イン・ディストリビューション・サンプルを含む,新しいアクティブ・ラーニング・ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-03-25T10:46:10Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Pareto Optimization for Active Learning under Out-of-Distribution Data
Scenarios [79.02009938011447]
本研究では,未ラベルデータプールからバッチサイズを固定した未ラベルサンプルの最適なサブセットを選択するサンプリング手法を提案する。
実験の結果,従来の機械学習(ML)タスクとディープラーニング(DL)タスクの両方において,その効果が示された。
論文 参考訳(メタデータ) (2022-07-04T04:11:44Z) - Active Learning at the ImageNet Scale [43.595076693347835]
本研究では,画像ネット上でのアクティブラーニング(AL)と事前学習(SSP)の組み合わせについて検討する。
学習者が選択したクラス不均衡なサンプルから,小型の玩具データセットのパフォーマンスがImageNetのパフォーマンスを表すものではないことが判明した。
本稿では、ランダムサンプリングを一貫して上回る、単純でスケーラブルなALアルゴリズムであるBa balanced Selection (BASE)を提案する。
論文 参考訳(メタデータ) (2021-11-25T02:48:51Z) - Low Budget Active Learning via Wasserstein Distance: An Integer
Programming Approach [81.19737119343438]
アクティブラーニング(Active Learning)とは、ラベル付きデータプールのコアサブセットをラベルに選択することで、ラベル付きデータでモデルをトレーニングするプロセスである。
本稿では,未ラベルプールからワッサーシュタイン距離を最小化するコアセットを選択するための新しい整数最適化問題を提案する。
我々の戦略は、ラベルのないプールで教師なし学習によって得られる高品質な潜伏的特徴を必要とする。
論文 参考訳(メタデータ) (2021-06-05T21:25:03Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z) - ALdataset: a benchmark for pool-based active learning [1.9308522511657449]
アクティブ・ラーニング(AL)は機械学習(ML)のサブフィールドであり、学習アルゴリズムは新しいデータポイントをラベル付けするためにユーザ/オーラルを対話的にクエリすることで、トレーニングサンプルの少ない精度で学習できる。
プールベースのALは多くのMLタスクにおいて、ラベルのないデータが豊富にあるが、ラベルを得るのは難しい。
提案手法は,最近提案された手法と古典的手法の両方で,様々なアクティブな学習戦略の実験結果を示し,その結果から洞察を得た。
論文 参考訳(メタデータ) (2020-10-16T04:37:29Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。