論文の概要: Myopic Bayesian Decision Theory for Batch Active Learning with Partial Batch Label Sampling
- arxiv url: http://arxiv.org/abs/2510.09877v1
- Date: Fri, 10 Oct 2025 21:28:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.661869
- Title: Myopic Bayesian Decision Theory for Batch Active Learning with Partial Batch Label Sampling
- Title(参考訳): 部分的バッチラベルサンプリングを用いたバッチアクティブラーニングのためのミオピックベイズ決定理論
- Authors: Kangping Hu, Stephen Mussmann,
- Abstract要約: 筋電図フレームワークにおける(ベイジアン)能動的学習のためのBDTを導出する。
BAIT(V-optimal experimental designに基づくアクティブラーニング)は,BDTと近似から導出可能であることを示す。
- 参考スコア(独自算出の注目度): 1.3428169333745101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past couple of decades, many active learning acquisition functions have been proposed, leaving practitioners with an unclear choice of which to use. Bayesian Decision Theory (BDT) offers a universal principle to guide decision-making. In this work, we derive BDT for (Bayesian) active learning in the myopic framework, where we imagine we only have one more point to label. This derivation leads to effective algorithms such as Expected Error Reduction (EER), Expected Predictive Information Gain (EPIG), and other algorithms that appear in the literature. Furthermore, we show that BAIT (active learning based on V-optimal experimental design) can be derived from BDT and asymptotic approximations. A key challenge of such methods is the difficult scaling to large batch sizes, leading to either computational challenges (BatchBALD) or dramatic performance drops (top-$B$ selection). Here, using a particular formulation of the decision process, we derive Partial Batch Label Sampling (ParBaLS) for the EPIG algorithm. We show experimentally for several datasets that ParBaLS EPIG gives superior performance for a fixed budget and Bayesian Logistic Regression on Neural Embeddings. Our code is available at https://github.com/ADDAPT-ML/ParBaLS.
- Abstract(参考訳): 過去数十年にわたり、多くのアクティブな学習獲得関数が提案され、実践者はどれを使うべきかの明確な選択を残している。
ベイズ決定理論(Bayesian Decision Theory, BDT)は、意思決定を導く普遍的な原理である。
この研究では、ミオピックフレームワークにおける(ベイジアン)アクティブラーニングのためのBDTを導出します。
この導出は、予測誤り低減(EER)、予測予測情報ゲイン(EPIG)、その他の文献に現れるアルゴリズムなどの効果的なアルゴリズムにつながる。
さらに,BAIT(V-optimal experimental designに基づく能動的学習)はBDTと漸近近似から導出できることを示した。
このような手法の重要な課題は、大規模なバッチサイズへのスケーリングが困難であることであり、計算上の問題(BatchBALD)や劇的なパフォーマンス低下(トップ-B$選択)につながる。
ここでは、決定過程の特定の定式化を用いて、EPIGアルゴリズムに対する部分バッチラベルサンプリング(ParBaLS)を導出する。
本稿では,ParBaLS EPIGが固定予算に対して優れた性能を示すデータセットと,ニューラルネットワーク上でのベイジアンロジスティック回帰を実験的に示す。
私たちのコードはhttps://github.com/ADDAPT-ML/ParBaLS.orgから入手可能です。
関連論文リスト
- A Bayesian Approach to Data Point Selection [24.98069363998565]
データポイントの選択(DPS)は、ディープラーニングにおいて重要なトピックになりつつある。
既存のDPSへのアプローチは、主にバイレベル最適化(BLO)の定式化に基づいている。
DPSに対する新しいベイズ的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-06T09:04:13Z) - Practical Bayesian Algorithm Execution via Posterior Sampling [24.795916177776856]
PS-BAXは後方サンプリングに基づく単純で効果的でスケーラブルなBAX法である。
PS-BAXは、多くの最適化変種やレベルセット推定を含む幅広い問題に適用できる。
論文 参考訳(メタデータ) (2024-10-27T21:11:55Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Optimal Sample Selection Through Uncertainty Estimation and Its
Application in Deep Learning [22.410220040736235]
コアセット選択とアクティブラーニングの両方に対処するための理論的に最適な解を提案する。
提案手法であるCOPSは,サブサンプルデータに基づいてトレーニングされたモデルの損失を最小限に抑えるために設計されている。
論文 参考訳(メタデータ) (2023-09-05T14:06:33Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Active Learning For Contextual Linear Optimization: A Margin-Based Approach [6.09977411428684]
ラベル取得アルゴリズムを導入し、ラベルなしデータからラベルの特徴サンプルの要求を逐次決定する。
ラベルが取得されたサンプルの数として定義されるラベル複雑性の上限を導出する。
提案アルゴリズムは,教師付き学習手法よりもラベルの複雑さがはるかに小さいことを示す。
論文 参考訳(メタデータ) (2023-05-11T05:44:36Z) - Achieving Minimax Rates in Pool-Based Batch Active Learning [26.12124106759262]
本稿では,学習者がラベル付けオラクルへのポイントのバッチを適応的に発行する,バッチアクティブな学習シナリオについて考察する。
本稿では,問合せ点の情報性と,その多様性との間に注意深いトレードオフを必要とする解を提案する。
論文 参考訳(メタデータ) (2022-02-11T04:55:45Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Adaptive Learning of the Optimal Batch Size of SGD [52.50880550357175]
本稿では,その繰り返しを通じて最適なバッチサイズを適応的に学習し,凸度と滑らかな関数を求める手法を提案する。
実験では、合成データと実データを用いて、ほぼ最適な振る舞いを示す。
我々は,本手法を分散実装に適したサンプリングを含む,文献上考慮されていないいくつかの新しいバッチ戦略に一般化する。
論文 参考訳(メタデータ) (2020-05-03T14:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。