論文の概要: Budgeted Multiple-Expert Deferral
- arxiv url: http://arxiv.org/abs/2510.26706v1
- Date: Thu, 30 Oct 2025 17:08:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.929076
- Title: Budgeted Multiple-Expert Deferral
- Title(参考訳): Budgeted Multi-Expert Deferral
- Authors: Giulia DeSalvo, Clara Mohri, Mehryar Mohri, Yutao Zhong,
- Abstract要約: 遅延アルゴリズムのトレーニング手順は、通常、トレーニングインスタンス毎にすべての専門家に問い合わせる必要がある。
本稿では,有能な遅延アルゴリズムのトレーニングを目標とし,訓練中の専門的なクエリコストを最小化することを目的とした,予算付きdeferralフレームワークを紹介する。
本稿では,2段階と1段階のマルチエキスパートのdeferral設定に対して,トレーニング例あたりのエキスパートのサブセットのみを選択的にクエリするアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 38.13580998392063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to defer uncertain predictions to costly experts offers a powerful strategy for improving the accuracy and efficiency of machine learning systems. However, standard training procedures for deferral algorithms typically require querying all experts for every training instance, an approach that becomes prohibitively expensive when expert queries incur significant computational or resource costs. This undermines the core goal of deferral: to limit unnecessary expert usage. To overcome this challenge, we introduce the budgeted deferral framework, which aims to train effective deferral algorithms while minimizing expert query costs during training. We propose new algorithms for both two-stage and single-stage multiple-expert deferral settings that selectively query only a subset of experts per training example. While inspired by active learning, our setting is fundamentally different: labels are already known, and the core challenge is to decide which experts to query in order to balance cost and predictive performance. We establish theoretical guarantees for both of our algorithms, including generalization bounds and label complexity analyses. Empirical results across several domains show that our algorithms substantially reduce training costs without sacrificing prediction accuracy, demonstrating the practical value of our budget-aware deferral algorithms.
- Abstract(参考訳): 高価な専門家に不確実な予測を遅らせることを学ぶことは、機械学習システムの正確性と効率を改善するための強力な戦略を提供する。
しかしながら、遅延アルゴリズムの標準的なトレーニング手順は、通常、訓練インスタンスごとにすべての専門家をクエリする必要がある。
これは、不必要な専門家の使用を制限するという、deferralのコア目標を損なうものだ。
この課題を克服するために、トレーニング中のエキスパートクエリコストを最小限に抑えつつ、効果的なdeferralアルゴリズムをトレーニングすることを目的とした、予算付きdeferralフレームワークを導入する。
本稿では,2段階と1段階のマルチエキスパートのdeferral設定に対して,トレーニング例あたりのエキスパートのサブセットのみを選択的にクエリするアルゴリズムを提案する。
ラベルはすでに知られており、どの専門家に問い合わせて、コストと予測パフォーマンスのバランスをとるかを決めるのが一番の課題です。
一般化バウンダリとラベル複雑性解析を含む,両アルゴリズムの理論的保証を確立する。
複数の領域にわたる実証的な結果から、予測精度を犠牲にすることなく、我々のアルゴリズムはトレーニングコストを大幅に削減し、予算対応のdeferralアルゴリズムの実用的価値を実証している。
関連論文リスト
- One-Prompt Strikes Back: Sparse Mixture of Experts for Prompt-based Continual Learning [52.966712416640085]
本稿では,タスク固有戦略と共有プロンプト戦略の両方の利点を統合する新しいフレームワークであるSMoPEを提案する。
SMoPEはタスク固有のプロンプトメソッドを一貫して上回り、最先端のアプローチと競合する性能を達成する。
論文 参考訳(メタデータ) (2025-09-29T08:54:58Z) - Stepsize anything: A unified learning rate schedule for budgeted-iteration training [43.52874155421866]
予算設定訓練は、所定の予算内で最適な学習を実現することを目的としている。
学習率のスケジュールは異なるネットワークやタスクのパフォーマンスを左右するが、その設計は理論的な基礎をほとんど欠いている。
本稿では,Unified Budget-Aware (UBA) スケジュールを提案する。
論文 参考訳(メタデータ) (2025-05-30T10:38:03Z) - Why Ask One When You Can Ask $k$? Learning-to-Defer to the Top-$k$ Experts [6.792743621449621]
我々は、Top-k$ Learning-to-Deferの最初のフレームワークを紹介します。
クエリを$k$のコスト効率の高いエンティティに割り当てる。
また、クエリ毎に最適な専門家数を学ぶ適応型変種であるTop-$k(x)$ Learning-to-Deferを提案する。
論文 参考訳(メタデータ) (2025-04-17T14:50:40Z) - Optimal Query Allocation in Extractive QA with LLMs: A Learning-to-Defer Framework with Theoretical Guarantees [3.4289478404209826]
大規模言語モデルは生成タスクでは優れているが、構造化されたテキスト選択では非効率である。
本稿では,専門的な専門家にクエリを割り当て,信頼性の高い予測を確実にする学習者向けフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T08:21:00Z) - An Experimental Design Framework for Label-Efficient Supervised Finetuning of Large Language Models [55.01592097059969]
命令データセットの監視された微調整は、目覚ましいゼロショットの一般化能力を達成する上で重要な役割を担っている。
アクティブラーニングは、未ラベルのプールからアノテートするサンプルの有用なサブセットを特定するのに効果的である。
本研究では,能動学習の計算ボトルネックを回避するための実験設計を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:56:54Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Consistent Estimators for Learning to Defer to an Expert [5.076419064097734]
我々は、意思決定を下流の専門家に延期するか、予測するか選択できる予測器の学習方法を示す。
様々な実験課題に対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-02T18:21:38Z) - Active Imitation Learning with Noisy Guidance [6.832341432995627]
シミュレーション学習アルゴリズムは、多くの構造化予測タスクに対して最先端の結果を提供する。
このようなアルゴリズムは、任意のクエリ状態において最適なアクションを提供する専門家へのトレーニングタイムアクセスを前提としている。
我々は,学習アルゴリズムがノイズの多いガイダンスを提供するより安価なノイズにアクセスできるような,アクティブな学習環境を考える。
論文 参考訳(メタデータ) (2020-05-26T15:35:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。