論文の概要: BoSS: A Best-of-Strategies Selector as an Oracle for Deep Active Learning
- arxiv url: http://arxiv.org/abs/2603.13109v1
- Date: Fri, 13 Mar 2026 16:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.172913
- Title: BoSS: A Best-of-Strategies Selector as an Oracle for Deep Active Learning
- Title(参考訳): BoSS: ディープラーニングのためのOracleとしてのベストプラクティス選択者
- Authors: Denis Huseljic, Paul Hahn, Marek Herde, Christoph Sandrock, Bernhard Sick,
- Abstract要約: Best-of-Strategy Selector (BoSS)は大規模アクティブな学習シナリオ用に設計されたスケーラブルなオラクル戦略である。
BoSSは選択戦略のアンサンブルを通じて一連の候補バッチを構築し、次に最高のパフォーマンスゲインを得るバッチを選択する。
選択戦略の集合体として、BoSSは新たな最先端戦略が出現するにつれて容易に拡張できる。
- 参考スコア(独自算出の注目度): 6.847756045870736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning (AL) aims to reduce annotation costs while maximizing model performance by iteratively selecting valuable instances. While foundation models have made it easier to identify these instances, existing selection strategies still lack robustness across different models, annotation budgets, and datasets. To highlight the potential weaknesses of existing AL strategies and provide a reference point for research, we explore oracle strategies, i.e., strategies that approximate the optimal selection by accessing ground-truth information unavailable in practical AL scenarios. Current oracle strategies, however, fail to scale effectively to large datasets and complex deep neural networks. To tackle these limitations, we introduce the Best-of-Strategy Selector (BoSS), a scalable oracle strategy designed for large-scale AL scenarios. BoSS constructs a set of candidate batches through an ensemble of selection strategies and then selects the batch yielding the highest performance gain. As an ensemble of selection strategies, BoSS can be easily extended with new state-of-the-art strategies as they emerge, ensuring it remains a reliable oracle strategy in the future. Our evaluation demonstrates that i) BoSS outperforms existing oracle strategies, ii) state-of-the-art AL strategies still fall noticeably short of oracle performance, especially in large-scale datasets with many classes, and iii) one possible solution to counteract the inconsistent performance of AL strategies might be to employ an ensemble-based approach for the selection.
- Abstract(参考訳): アクティブラーニング(AL)は、価値あるインスタンスを反復的に選択することで、モデルパフォーマンスを最大化しながら、アノテーションのコストを削減することを目的としている。
基礎モデルによってこれらのインスタンスの識別が容易になったが、既存の選択戦略には、さまざまなモデル、アノテーション予算、データセット間の堅牢性がない。
既存のAL戦略の潜在的な弱点を強調し,研究の基準点を提供するため,実践的なALシナリオでは利用できない地道情報にアクセスすることで最適な選択を近似するオラクル戦略を探索する。
しかし、現在のオラクル戦略は、大規模なデータセットや複雑なディープニューラルネットワークに効果的にスケールできない。
これらの制限に対処するために、大規模ALシナリオ用に設計されたスケーラブルなオラクル戦略であるBest-of-Strategy Selector(BoSS)を導入する。
BoSSは選択戦略のアンサンブルを通じて一連の候補バッチを構築し、次に最高のパフォーマンスゲインを得るバッチを選択する。
選択戦略のアンサンブルとして、BoSSは新たな最先端戦略で容易に拡張でき、将来信頼性の高いオラクル戦略を維持できる。
我々の評価はそれを証明している
一 BoSSは、既存のオラクル戦略を上回ります。
ii)最先端のAL戦略は、特に多くのクラスを持つ大規模データセットにおいて、オラクルのパフォーマンスに著しく劣っている。
三 AL戦略の不整合性能に対処するための一の解決策は、選考にアンサンブルに基づくアプローチを採用することかもしれない。
関連論文リスト
- Reinforced Strategy Optimization for Conversational Recommender Systems via Network-of-Experts [63.412646471177645]
会話レコメンダシステム(CRS)のための新しい強化戦略最適化(RSO)手法を提案する。
RSOは、戦略駆動型応答決定をマクロレベルの戦略計画とマイクロレベルの戦略適応に分解する。
実験の結果, RSOは最先端のベースラインと比較して, インタラクション性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-09-30T11:12:01Z) - EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Stratify: Unifying Multi-Step Forecasting Strategies [0.0]
Stratifyは、既存の戦略の予測と統合に対処するフレームワークである。
1080の実験の84%以上で、Stratifyの新たな戦略は、既存のすべての実験と比べてパフォーマンスを改善した。
我々の結果は、既知の予測戦略と新しい予測戦略の最も包括的なベンチマークである。
論文 参考訳(メタデータ) (2024-12-29T16:06:46Z) - Scalable and Equitable Math Problem Solving Strategy Prediction in Big
Educational Data [2.86829428083307]
我々はMVecと呼ばれる埋め込みを開発し、学生の熟達度に基づいて表現を学習する。
次に、これらの埋め込みを非パラメトリッククラスタリング法でクラスタ化する。
提案手法は,大規模データセットの小さなサンプルをトレーニングすることで,高精度にスケールアップ可能であることを示す。
論文 参考訳(メタデータ) (2023-08-07T19:51:10Z) - ALE: A Simulation-Based Active Learning Evaluation Framework for the
Parameter-Driven Comparison of Query Strategies for NLP [3.024761040393842]
Active Learning (AL)は、後続のサンプルやランダムなサンプルではなく、次にアノテータに有望なデータポイントを提案する。
この方法は、モデルパフォーマンスを維持しながらアノテーションの労力を節約することを目的としている。
NLPにおけるAL戦略の比較評価のための再現可能な能動学習評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-01T10:42:11Z) - ImitAL: Learned Active Learning Strategy on Synthetic Data [30.595138995552748]
ImitALはドメインに依存しない新しいクエリ戦略であり、ALを学習からランクまでの問題としてエンコードする。
我々はImitALを、純粋に合成されたデータセット上で大規模にシミュレーションされたALで訓練する。
ImitALがうまくトレーニングされたことを示すため、13の異なるデータセット上での戦略の比較を広範囲に評価した。
論文 参考訳(メタデータ) (2022-08-24T16:17:53Z) - SemiNLL: A Framework of Noisy-Label Learning by Semi-Supervised Learning [58.26384597768118]
SemiNLLはSS戦略とSSLモデルをエンドツーエンドで組み合わせた汎用フレームワークである。
我々のフレームワークは、様々なSS戦略やSSLバックボーンを吸収し、そのパワーを利用して有望なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-12-02T01:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。