論文の概要: Regression with Cost-based Rejection
- arxiv url: http://arxiv.org/abs/2311.04550v1
- Date: Wed, 8 Nov 2023 09:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 16:26:21.651117
- Title: Regression with Cost-based Rejection
- Title(参考訳): コストベースリジェクションによる回帰
- Authors: Xin Cheng and Yuzhou Cao and Haobo Wang and Hongxin Wei and Bo An and
Lei Feng
- Abstract要約: 本稿では, ある拒絶コストを前提として, モデルがいくつかの例で予測を下方修正できる新たな回帰問題について検討する。
我々はベイズ最適解を導出し、最適モデルが拒絶コストよりも分散が大きい例について予測を下さなければならないことを示す。
- 参考スコア(独自算出の注目度): 30.43900105405108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with rejection is an important framework that can refrain from
making predictions to avoid critical mispredictions by balancing between
prediction and rejection. Previous studies on cost-based rejection only focused
on the classification setting, which cannot handle the continuous and infinite
target space in the regression setting. In this paper, we investigate a novel
regression problem called regression with cost-based rejection, where the model
can reject to make predictions on some examples given certain rejection costs.
To solve this problem, we first formulate the expected risk for this problem
and then derive the Bayes optimal solution, which shows that the optimal model
should reject to make predictions on the examples whose variance is larger than
the rejection cost when the mean squared error is used as the evaluation
metric. Furthermore, we propose to train the model by a surrogate loss function
that considers rejection as binary classification and we provide conditions for
the model consistency, which implies that the Bayes optimal solution can be
recovered by our proposed surrogate loss. Extensive experiments demonstrate the
effectiveness of our proposed method.
- Abstract(参考訳): 拒絶による学習は、予測と拒絶のバランスをとることによって、重大な誤予測を避けるために予測を控える重要なフレームワークである。
コストベースの拒絶に関する以前の研究は、回帰設定において連続的および無限的対象空間を扱えない分類設定のみに焦点を当てていた。
本稿では,コストに基づく拒絶を伴う回帰問題と呼ばれる新たな回帰問題について検討する。
この問題を解決するために,まずこの問題に対する期待リスクを定式化し,次にベイズ最適解を導出し,評価指標として平均二乗誤差を用いた場合,誤差が拒絶コストよりも大きい例に対して最適モデルが予測を拒絶することを示す。
さらに,拒絶を二元分類として考慮した代理損失関数を用いてモデルを訓練することを提案し,モデル一貫性の条件を提供し,提案する代理損失によってベイズ最適解を回復できることを示す。
提案手法の有効性を示す広範な実験を行った。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Conformalized Selective Regression [2.3964255330849356]
共形予測を利用した選択回帰手法を提案する。
提案手法は, 選択回帰に適合し, 複数の最先端ベースラインに対して有利であることを示す。
論文 参考訳(メタデータ) (2024-02-26T04:43:50Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy
Optimization [63.32053223422317]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
特に、MDP上の分布によって誘導される値の分散を特徴付けることに焦点をあてる。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - When No-Rejection Learning is Consistent for Regression with Rejection [11.244583592648443]
本研究では,すべてのデータを用いて予測を学習するノンリジェクト学習戦略について検討する。
本稿では,すべてのデータを用いて予測を学習するノンリジェクト学習戦略について検討する。
論文 参考訳(メタデータ) (2023-07-06T11:43:22Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Selective Regression Under Fairness Criteria [30.672082160544996]
少数派集団のパフォーマンスは、カバー範囲を減らしながら低下する場合もある。
満足度基準を満たす特徴を構築できれば、そのような望ましくない行動は避けられることを示す。
論文 参考訳(メタデータ) (2021-10-28T19:05:12Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Regression with reject option and application to kNN [0.0]
我々は、このフレームワークをrejectオプションによる回帰として、rejectオプションによる分類の拡張として参照する。
2つのデータセットを含む最適規則を半教師付きで推定する手法を提案する。
その結果、リジェクションオプションを持つ予測器は、リスクとリジェクションレートの両方の観点から、リジェクションオプションを持つ最適予測器とほぼ同等であることが示された。
論文 参考訳(メタデータ) (2020-06-30T08:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。