論文の概要: Two-stage Learning-to-Defer for Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2410.15729v2
- Date: Mon, 11 Nov 2024 09:15:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:04:59.442693
- Title: Two-stage Learning-to-Defer for Multi-Task Learning
- Title(参考訳): マルチタスク学習のための2段階学習-to-Defer
- Authors: Yannis Montreuil, Shu Heng Yeo, Axel Carlier, Lai Xing Ng, Wei Tsang Ooi,
- Abstract要約: 分類タスクと回帰タスクの両方を包含するマルチタスク学習のためのLearning-to-Deferアプローチを提案する。
我々の2段階のアプローチでは、事前訓練された共同回帰モデルと1つ以上の外部の専門家のうち、最も正確なエージェントに決定を下すリジェクターを使用します。
- 参考スコア(独自算出の注目度): 3.4289478404209826
- License:
- Abstract: The Learning-to-Defer approach has been explored for classification and, more recently, regression tasks separately. Many contemporary learning tasks, however, involves both classification and regression components. In this paper, we introduce a Learning-to-Defer approach for multi-task learning that encompasses both classification and regression tasks. Our two-stage approach utilizes a rejector that defers decisions to the most accurate agent among a pre-trained joint classifier-regressor models and one or more external experts. We show that our surrogate loss is $(\mathcal{H}, \mathcal{F}, \mathcal{R})$ and Bayes--consistent, ensuring an effective approximation of the optimal solution. Additionally, we derive learning bounds that demonstrate the benefits of employing multiple confident experts along a rich model in a two-stage learning framework. Empirical experiments conducted on electronic health record analysis tasks underscore the performance enhancements achieved through our method.
- Abstract(参考訳): Learning-to-Deferアプローチは分類のために検討され、最近では回帰タスクを別々に検討している。
しかし、現代の多くの学習課題には、分類と回帰の両方が含まれる。
本稿では,分類タスクと回帰タスクの両方を包含するマルチタスク学習のためのラーニング・ツー・Deferアプローチを提案する。
我々の2段階のアプローチは、事前訓練された共同分類器/回帰器モデルと1つ以上の外部の専門家のうち、最も正確なエージェントに決定を下すリジェクターを利用する。
我々の代理損失は$(\mathcal{H}, \mathcal{F}, \mathcal{R})$およびBayes-consistentであり、最適解の効率的な近似を保証する。
さらに、我々は、2段階の学習フレームワークでリッチモデルに沿って複数の自信のある専門家を雇う利点を示す学習境界を導出します。
電子健康記録解析タスクにおける実証実験は,本手法により達成された性能向上を裏付けるものである。
関連論文リスト
- Adversarial Robustness in Two-Stage Learning-to-Defer: Algorithms and Guarantees [3.6787328174619254]
Learning-to-Defer(L2D)は、AIシステムと意思決定者間の最適なタスク割り当てを容易にする。
本稿では, 2段階のL2Dフレームワークにおいて, 対向ロバスト性の最初の包括的解析を行う。
我々はベイズと$(mathcalR,mathcalG)$-consistencyをルーツとする頑健で凸なdeferralアルゴリズムであるSARDを提案する。
論文 参考訳(メタデータ) (2025-02-03T03:44:35Z) - Regression with Multi-Expert Deferral [30.389055604165222]
複数の専門家で予測を遅延させる学習は、学習者が複数の専門家に予測を遅延させることを選択できるフレームワークである。
本稿では、複数の専門家に予測を延期することを含む、遅延を伴う新しい回帰の枠組みを提案する。
両シナリオに新たなサロゲート損失関数を導入し,これらが$H$一貫性境界でサポートされていることを証明した。
論文 参考訳(メタデータ) (2024-03-28T15:26:38Z) - Inter- and intra-uncertainty based feature aggregation model for semi-supervised histopathology image segmentation [21.973620376753594]
学生モデルにおける階層的予測の不確実性(不確実性)と画像予測不確実性(不確実性)は,既存の手法では十分に活用されていない。
本研究では,教師・学生アーキテクチャにおける不整合度と不整合度を計測・制約する新しい不整合正規化手法を提案する。
また,セグメンテーションモデルとして擬似マスク誘導特徴集約(PG-FANet)を用いた2段階ネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-19T14:32:21Z) - A Unifying Perspective on Multi-Calibration: Game Dynamics for
Multi-Objective Learning [63.20009081099896]
マルチキャリブレーション予測器の設計と解析のための統一フレームワークを提供する。
ゲームダイナミクスとの接続を利用して,多様なマルチ校正学習問題に対する最先端の保証を実現する。
論文 参考訳(メタデータ) (2023-02-21T18:24:17Z) - Hierarchical Optimization-Derived Learning [58.69200830655009]
我々は,最適化モデル構築の本質的な動作とそれに対応する学習過程を同時に研究するために,階層型ODL(Hyerarchical ODL)という新しいフレームワークを構築した。
これは、最適化と学習という2つの結合されたODLコンポーネントに対する最初の理論的保証である。
論文 参考訳(メタデータ) (2023-02-11T03:35:13Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - On the pitfalls of entropy-based uncertainty for multi-class
semi-supervised segmentation [8.464487190628395]
半教師付き学習は、限られた監督で深層モデルを訓練するための魅力的な戦略として現れてきた。
本稿では,この戦略がマルチクラスコンテキストにおける最適以下の結果をもたらすことを実証する。
本稿では,クラス間の重なり合いを考慮に入れた分散距離に基づいて,マルチクラス設定における不確実性を計算する方法を提案する。
論文 参考訳(メタデータ) (2022-03-07T18:35:17Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。