論文の概要: Stochastic Batch Acquisition: A Simple Baseline for Deep Active Learning
- arxiv url: http://arxiv.org/abs/2106.12059v3
- Date: Tue, 19 Sep 2023 21:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 02:56:57.221532
- Title: Stochastic Batch Acquisition: A Simple Baseline for Deep Active Learning
- Title(参考訳): 確率的バッチ獲得:深層アクティブ学習のためのシンプルなベースライン
- Authors: Andreas Kirsch, Sebastian Farquhar, Parmida Atighehchian, Andrew
Jesson, Frederic Branchaud-Charron, Yarin Gal
- Abstract要約: 本稿では,よく知られた単一点獲得関数を適用して,バッチアクティブ学習を実現するための簡単な戦略について検討する。
この戦略は、BatchBALDやBADGEのような、計算集約的なバッチ取得機能と同様に、桁違いの計算量を使用することができる。
機械学習実践者に実践的な選択肢を提供することに加えて、幅広い実験環境で提案手法が驚くほど成功したことは、この分野にとって難しい問題となっている。
- 参考スコア(独自算出の注目度): 48.19646855997791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examine a simple stochastic strategy for adapting well-known single-point
acquisition functions to allow batch active learning. Unlike acquiring the
top-K points from the pool set, score- or rank-based sampling takes into
account that acquisition scores change as new data are acquired. This simple
strategy for adapting standard single-sample acquisition strategies can even
perform just as well as compute-intensive state-of-the-art batch acquisition
functions, like BatchBALD or BADGE, while using orders of magnitude less
compute. In addition to providing a practical option for machine learning
practitioners, the surprising success of the proposed method in a wide range of
experimental settings raises a difficult question for the field: when are these
expensive batch acquisition methods pulling their weight?
- Abstract(参考訳): 本稿では,よく知られた単一点獲得関数を適用してバッチアクティブ学習を実現するための簡単な確率的戦略を検討する。
プールセットからトップKポイントを取得するのとは異なり、スコアベースのサンプリングは、新しいデータが取得されると、取得スコアが変化することを考慮に入れている。
標準的な単一サンプル取得戦略を適用するためのこの単純な戦略は、BatchBALDやBADGEのような計算集約型バッチ取得関数と同様に、桁違いに少ない計算量を使用することができる。
機械学習の実践者に実用的な選択肢を提供するのに加えて、幅広い実験環境で提案手法が驚くほど成功したことは、この分野において難しい疑問を提起する。
関連論文リスト
- Novel Batch Active Learning Approach and Its Application to Synthetic
Aperture Radar Datasets [7.381841249558068]
近年、合成開口レーダ(SAR)データarXiv:2204.00005のシーケンシャルな能動学習が実施されている。
そこで我々は,Dijkstraのコアセット生成用Annulus Core-Set(DAC)とバッチサンプリング用LocalMaxという,バッチアクティブラーニングのための新しい2部構成のアプローチを開発した。
DACとLocalMaxを組み合わせたバッチアクティブラーニングプロセスは、逐次アクティブラーニングとほぼ同じ精度で、バッチサイズに比例して効率的である。
論文 参考訳(メタデータ) (2023-07-19T23:25:21Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Achieving Minimax Rates in Pool-Based Batch Active Learning [26.12124106759262]
本稿では,学習者がラベル付けオラクルへのポイントのバッチを適応的に発行する,バッチアクティブな学習シナリオについて考察する。
本稿では,問合せ点の情報性と,その多様性との間に注意深いトレードオフを必要とする解を提案する。
論文 参考訳(メタデータ) (2022-02-11T04:55:45Z) - Batch Active Learning at Scale [39.26441165274027]
バッチクエリをラベル付けオラクルに適応的に発行するバッチアクティブラーニングは、この問題に対処するための一般的なアプローチである。
本研究では,大規模なバッチ設定に着目した効率的な能動学習アルゴリズムを解析する。
本研究では,不確実性と多様性の概念を組み合わせたサンプリング手法について,従来より数桁大きなバッチサイズ(100K-1M)に容易にスケール可能であることを示す。
論文 参考訳(メタデータ) (2021-07-29T18:14:05Z) - Few-shot Sequence Learning with Transformers [79.87875859408955]
少数のトレーニング例で提供される新しいタスクの学習を目的とした少数のショットアルゴリズム。
本研究では,データポイントがトークンのシーケンスである設定において,少数ショット学習を行う。
トランスフォーマーに基づく効率的な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-17T12:30:38Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z) - Zeroth-Order Supervised Policy Improvement [94.0748002906652]
政策勾配(PG)アルゴリズムは強化学習(RL)に広く用いられている。
ゼロ次監視政策改善(ZOSPI)を提案する。
ZOSPIは、PGメソッドの局所的な利用を保ちながら、推定値関数を全世界で$Q$で活用する。
論文 参考訳(メタデータ) (2020-06-11T16:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。