論文の概要: A Simple Baseline for Batch Active Learning with Stochastic Acquisition
Functions
- arxiv url: http://arxiv.org/abs/2106.12059v1
- Date: Tue, 22 Jun 2021 21:07:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:30:17.393991
- Title: A Simple Baseline for Batch Active Learning with Stochastic Acquisition
Functions
- Title(参考訳): 確率的獲得関数を用いたバッチアクティブ学習のための簡易ベースライン
- Authors: Andreas Kirsch, Sebastian Farquhar, Yarin Gal
- Abstract要約: 本稿では,1サンプルの取得関数をバッチ設定に拡張する新しいタイプの取得関数を提案する。
追加サンプルを取得すると1サンプルの取得スコアがどう変化するかを観察し、追加のバッチサンプルのためにこの差をモデル化する。
当社の取得機能は,他のバッチ取得機能よりもはるかに安価で,パフォーマンスも優れています。
- 参考スコア(独自算出の注目度): 32.78204073455068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In active learning, new labels are commonly acquired in batches. However,
common acquisition functions are only meant for one-sample acquisition rounds
at a time, and when their scores are used naively for batch acquisition, they
result in batches lacking diversity, which deteriorates performance. On the
other hand, state-of-the-art batch acquisition functions are costly to compute.
In this paper, we present a novel class of stochastic acquisition functions
that extend one-sample acquisition functions to the batch setting by observing
how one-sample acquisition scores change as additional samples are acquired and
modelling this difference for additional batch samples. We simply acquire new
samples by sampling from the pool set using a Gibbs distribution based on the
acquisition scores. Our acquisition functions are both vastly cheaper to
compute and out-perform other batch acquisition functions.
- Abstract(参考訳): アクティブラーニングでは、新しいラベルは一般的にバッチで取得される。
しかし、共通取得関数は一度に1回のサンプル獲得ラウンドのみを対象としており、そのスコアをバッチ取得に生かして使用すると、多様性が欠如し、性能が低下する。
一方、最先端のバッチ取得関数は計算にコストがかかる。
本稿では,1サンプル獲得関数をバッチ設定に拡張した新たな確率的獲得関数のクラスを,追加サンプル取得時に1サンプル獲得スコアがどう変化するかを観察し,追加バッチサンプルに対してこの差をモデル化する。
取得スコアに基づいてgibbs分布を用いてプールセットからサンプリングして新たなサンプルを得る。
私たちの獲得関数は他のバッチ取得関数よりも計算コストが大幅に安くなります。
関連論文リスト
- Novel Batch Active Learning Approach and Its Application to Synthetic
Aperture Radar Datasets [7.381841249558068]
近年、合成開口レーダ(SAR)データarXiv:2204.00005のシーケンシャルな能動学習が実施されている。
そこで我々は,Dijkstraのコアセット生成用Annulus Core-Set(DAC)とバッチサンプリング用LocalMaxという,バッチアクティブラーニングのための新しい2部構成のアプローチを開発した。
DACとLocalMaxを組み合わせたバッチアクティブラーニングプロセスは、逐次アクティブラーニングとほぼ同じ精度で、バッチサイズに比例して効率的である。
論文 参考訳(メタデータ) (2023-07-19T23:25:21Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Achieving Minimax Rates in Pool-Based Batch Active Learning [26.12124106759262]
本稿では,学習者がラベル付けオラクルへのポイントのバッチを適応的に発行する,バッチアクティブな学習シナリオについて考察する。
本稿では,問合せ点の情報性と,その多様性との間に注意深いトレードオフを必要とする解を提案する。
論文 参考訳(メタデータ) (2022-02-11T04:55:45Z) - Batch Active Learning at Scale [39.26441165274027]
バッチクエリをラベル付けオラクルに適応的に発行するバッチアクティブラーニングは、この問題に対処するための一般的なアプローチである。
本研究では,大規模なバッチ設定に着目した効率的な能動学習アルゴリズムを解析する。
本研究では,不確実性と多様性の概念を組み合わせたサンプリング手法について,従来より数桁大きなバッチサイズ(100K-1M)に容易にスケール可能であることを示す。
論文 参考訳(メタデータ) (2021-07-29T18:14:05Z) - Few-shot Sequence Learning with Transformers [79.87875859408955]
少数のトレーニング例で提供される新しいタスクの学習を目的とした少数のショットアルゴリズム。
本研究では,データポイントがトークンのシーケンスである設定において,少数ショット学習を行う。
トランスフォーマーに基づく効率的な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-17T12:30:38Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z) - Zeroth-Order Supervised Policy Improvement [94.0748002906652]
政策勾配(PG)アルゴリズムは強化学習(RL)に広く用いられている。
ゼロ次監視政策改善(ZOSPI)を提案する。
ZOSPIは、PGメソッドの局所的な利用を保ちながら、推定値関数を全世界で$Q$で活用する。
論文 参考訳(メタデータ) (2020-06-11T16:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。