論文の概要: PowerEvaluationBALD: Efficient Evaluation-Oriented Deep (Bayesian)
Active Learning with Stochastic Acquisition Functions
- arxiv url: http://arxiv.org/abs/2101.03552v1
- Date: Sun, 10 Jan 2021 13:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 08:20:06.898623
- Title: PowerEvaluationBALD: Efficient Evaluation-Oriented Deep (Bayesian)
Active Learning with Stochastic Acquisition Functions
- Title(参考訳): PowerEvaluationBALD:確率的獲得関数を用いた効率的な評価指向深層学習
- Authors: Andreas Kirsch
- Abstract要約: 深層アクティブ学習のための新しい獲得関数である batchevaluationbald を開発した。
また、評価情報ゲインと呼ばれる非ベイジアン設定の変種も開発しています。
計算要求を減らし,これらの手法をより大きなバッチサイズにスケールできるようにするため,テンパリングされた獲得スコアの重要サンプリングを利用する獲得関数を導入する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop BatchEvaluationBALD, a new acquisition function for deep Bayesian
active learning, as an expansion of BatchBALD that takes into account an
evaluation set of unlabeled data, for example, the pool set. We also develop a
variant for the non-Bayesian setting, which we call Evaluation Information
Gain. To reduce computational requirements and allow these methods to scale to
larger acquisition batch sizes, we introduce stochastic acquisition functions
that use importance-sampling of tempered acquisition scores. We call this
method PowerEvaluationBALD. We show in first experiments that
PowerEvaluationBALD works on par with BatchEvaluationBALD, which outperforms
BatchBALD on Repeated MNIST (MNISTx2), while massively reducing the
computational requirements compared to BatchBALD or BatchEvaluationBALD.
- Abstract(参考訳): 我々は,未ラベルデータ,例えばプールセットの評価セットを考慮したバッチバルドの拡張として,深ベイズアクティブラーニングのための新しい獲得関数である batchevaluationbald を開発した。
また,評価情報ゲインと呼ばれる非ベイズ的セッティングの変種も開発している。
計算要求を減らし,これらの手法をより大きな獲得バッチサイズにスケールできるようにするため,係留された獲得スコアの重要サンプリングを利用する確率的獲得関数を導入する。
我々はこの手法をPowerEvaluationBALDと呼ぶ。
最初の実験では、PowerEvaluationBALD が BatchEvaluationBALD と同等であり、これは繰り返し MNIST (MNISTx2) 上で BatchBALD を上回り、BatchBALD や BatchEvaluationBALD と比較して計算要求を大幅に削減する。
関連論文リスト
- Practical Bayesian Algorithm Execution via Posterior Sampling [24.795916177776856]
PS-BAXは後方サンプリングに基づく単純で効果的でスケーラブルなBAX法である。
PS-BAXは、多くの最適化変種やレベルセット推定を含む幅広い問題に適用できる。
論文 参考訳(メタデータ) (2024-10-27T21:11:55Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Diversity Enhanced Active Learning with Strictly Proper Scoring Rules [4.81450893955064]
テキスト分類のための能動学習(AL)のための獲得関数について検討する。
我々は、期待損失削減法(ELR)を、ログ確率や負平均二乗誤差などの(厳密な)スコアの増加を推定するために変換する。
BEMPSを用いた平均二乗誤差とログ確率を用いることで、ロバストな取得関数が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T05:02:11Z) - Estimation Error Correction in Deep Reinforcement Learning for
Deterministic Actor-Critic Methods [0.0]
価値に基づく深層強化学習法では、値関数の近似は過大評価バイアスを誘発し、準最適ポリシーをもたらす。
過大評価バイアスを克服することを目的とした深いアクター批判的手法では,エージェントが受信した強化信号に高いばらつきがある場合,顕著な過大評価バイアスが発生することを示す。
過小評価を最小限に抑えるため,パラメータフリーで新しいQ-ラーニングモデルを提案する。
論文 参考訳(メタデータ) (2021-09-22T13:49:35Z) - Stochastic Batch Acquisition: A Simple Baseline for Deep Active Learning [48.19646855997791]
本稿では,よく知られた単一点獲得関数を適用して,バッチアクティブ学習を実現するための簡単な戦略について検討する。
この戦略は、BatchBALDやBADGEのような、計算集約的なバッチ取得機能と同様に、桁違いの計算量を使用することができる。
機械学習実践者に実践的な選択肢を提供することに加えて、幅広い実験環境で提案手法が驚くほど成功したことは、この分野にとって難しい問題となっている。
論文 参考訳(メタデータ) (2021-06-22T21:07:50Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。