論文の概要: Principled Approaches for Learning to Defer with Multiple Experts
- arxiv url: http://arxiv.org/abs/2310.14774v2
- Date: Sun, 31 Mar 2024 09:15:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-04-02 15:25:00.670703
- Title: Principled Approaches for Learning to Defer with Multiple Experts
- Title(参考訳): 複数の専門家に学ぶための原則的アプローチ
- Authors: Anqi Mao, Mehryar Mohri, Yutao Zhong,
- Abstract要約: マルチエキスパート設定に特化して,新たなサロゲート損失のファミリーを導入する。
これらのサロゲート損失は、強い$H$一貫性境界の恩恵を受けることを証明している。
- 参考スコア(独自算出の注目度): 30.389055604165222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a study of surrogate losses and algorithms for the general problem of learning to defer with multiple experts. We first introduce a new family of surrogate losses specifically tailored for the multiple-expert setting, where the prediction and deferral functions are learned simultaneously. We then prove that these surrogate losses benefit from strong $H$-consistency bounds. We illustrate the application of our analysis through several examples of practical surrogate losses, for which we give explicit guarantees. These loss functions readily lead to the design of new learning to defer algorithms based on their minimization. While the main focus of this work is a theoretical analysis, we also report the results of several experiments on SVHN and CIFAR-10 datasets.
- Abstract(参考訳): 本稿では,複数の専門家と遅延する学習の一般的な問題に対して,サロゲート損失とアルゴリズムについて検討する。
本稿では,まず,予測関数と遅延関数を同時に学習するマルチエキスパート設定に特化して,サロゲート損失の新たなファミリーを導入する。
次に、これらのサロゲート損失が強い$H$一貫性境界の恩恵を受けることを証明します。
本稿では,現実的な代理損失の事例を通して分析の適用について述べる。
これらの損失関数は、その最小化に基づいてアルゴリズムを遅延させる新しい学習の設計につながる。
本研究の主な焦点は理論解析であるが,SVHNとCIFAR-10データセットに関するいくつかの実験の結果も報告する。
関連論文リスト
- Test-Time Learning of Causal Structure from Interventional Data [50.06913286558919]
共同因果推論を用いたテスト時間トレーニングを併用する新しい手法であるTICL(Test-Time Interventional Causal Learning)を提案する。
具体的には、テスト時にインスタンス固有のトレーニングデータを生成するための自己拡張戦略を設計し、分散シフトを効果的に回避する。
共同因果推論を統合することで,PCにインスパイアされた2相教師付き学習手法を開発し,理論的識別性を確保しつつ,自己拡張学習データを有効に活用した。
論文 参考訳(メタデータ) (2026-02-22T11:23:05Z) - Is Softmax Loss All You Need? A Principled Analysis of Softmax-family Loss [91.61796429377041]
ソフトマックスの損失は、分類とランキングのタスクにおいて最も広く使用されるサロゲートの目標の1つである。
本研究では,異なるサロゲートが分類とランキングの指標との整合性を達成するかどうかを考察し,それらの勾配ダイナミクスを分析して,異なる収束挙動を明らかにする。
本研究は,大規模機械学習アプリケーションにおける損失選択の実践的ガイダンスとして,原則的基礎を確立した。
論文 参考訳(メタデータ) (2026-01-30T09:24:52Z) - Theory and Algorithms for Learning with Multi-Class Abstention and Multi-Expert Deferral [20.76255397215973]
大規模言語モデル(LLM)は目覚ましい性能を達成したが、幻覚や高い推論コストといった重要な課題に直面している。
より有能な専門家に不確実なインプットを延期することで、信頼性が向上する。
この論文は、強い一貫性の保証によって支持される、この問題と、それに関連する禁断学習の問題を包括的に研究している。
論文 参考訳(メタデータ) (2025-12-28T11:33:39Z) - Rectifying Regression in Reinforcement Learning [51.28909745713678]
平均絶対誤差は,学習方針の最適度差を制御するために,従来の平均二乗誤差よりもよい予測目標であることを示す。
異なる損失関数は、これらの異なる回帰目標とよりよく一致していることを示す。
論文 参考訳(メタデータ) (2025-10-01T13:32:07Z) - Mastering Multiple-Expert Routing: Realizable $H$-Consistency and Strong Guarantees for Learning to Defer [30.389055604165222]
本稿では,理論学習の保証が強い新しい代理損失関数と効率的なアルゴリズムを提案する。
実現可能な$H$一貫性、$H$一貫性境界、単段階および二段階の学習シナリオにおけるベイズ一貫性に関するオープンな疑問に対処する。
実効化可能な$H$整合性,$H$整合性境界,および2つの経験的シナリオに対するベイズ整合性,そして自然仮定の下では多重経験的シナリオを実現するための新たな代理的損失を導出する。
論文 参考訳(メタデータ) (2025-06-25T17:48:58Z) - Regression with Multi-Expert Deferral [30.389055604165222]
複数の専門家で予測を遅延させる学習は、学習者が複数の専門家に予測を遅延させることを選択できるフレームワークである。
本稿では、複数の専門家に予測を延期することを含む、遅延を伴う新しい回帰の枠組みを提案する。
両シナリオに新たなサロゲート損失関数を導入し,これらが$H$一貫性境界でサポートされていることを証明した。
論文 参考訳(メタデータ) (2024-03-28T15:26:38Z) - Predictor-Rejector Multi-Class Abstention: Theoretical Analysis and Algorithms [30.389055604165222]
マルチクラス分類設定において,留意を伴う学習の鍵となる枠組みについて検討する。
この設定では、学習者は事前に定義されたコストで予測をしないことを選択できる。
我々は、強い非漸近的および仮説的整合性を保証するために、いくつかの新しい代理損失の族を導入する。
論文 参考訳(メタデータ) (2023-10-23T10:16:27Z) - Theoretically Grounded Loss Functions and Algorithms for Score-Based Multi-Class Abstention [30.389055604165222]
禁断損失関数に対する代用損失の新たなファミリーを導入する。
我々はこれらのサロゲート損失に対して、非漸近的で仮説固有の一貫性を保証する。
以上の結果から,最新のスコアベースサロゲート損失の相対的性能はデータセットによって異なる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-23T10:13:35Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Reducing Confusion in Active Learning for Part-Of-Speech Tagging [100.08742107682264]
アクティブラーニング(AL)は、データ選択アルゴリズムを使用して、アノテーションコストを最小限に抑えるために有用なトレーニングサンプルを選択する。
本研究では、特定の出力タグのペア間の混乱を最大に低減するインスタンスの選択問題について検討する。
提案するAL戦略は,他のAL戦略よりも有意差で優れている。
論文 参考訳(メタデータ) (2020-11-02T06:24:58Z) - A Theory of Multiple-Source Adaptation with Limited Target Labeled Data [66.53679520072978]
モデル選択のアイデアに基づく新しいアルゴリズムのファミリーは,このシナリオにおいて非常に望ましい保証から恩恵を受けることを示す。
また,本アルゴリズムの実用性を示すいくつかの実験結果についても報告する。
論文 参考訳(メタデータ) (2020-07-19T19:34:48Z) - Consistent Estimators for Learning to Defer to an Expert [5.076419064097734]
我々は、意思決定を下流の専門家に延期するか、予測するか選択できる予測器の学習方法を示す。
様々な実験課題に対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-02T18:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。