論文の概要: Ask for More Than Bayes Optimal: A Theory of Indecisions for Classification
- arxiv url: http://arxiv.org/abs/2412.12807v2
- Date: Sun, 13 Apr 2025 12:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:46:32.048075
- Title: Ask for More Than Bayes Optimal: A Theory of Indecisions for Classification
- Title(参考訳): ベイズ最適以上を問う: 分類の不確定理論
- Authors: Mohamed Ndaoud, Peter Radchenko, Bradley Rava,
- Abstract要約: 選択的分類は、リスクの高いシナリオにおける自動意思決定のための強力なツールである。
私たちのゴールは、自動ではない観察である不確定の数を最小化することです。
不確定性を用いることで、ベイズ最適誤差率以下であっても、ユーザ指定レベルの誤分類率を制御することができる。
- 参考スコア(独自算出の注目度): 1.8434042562191815
- License:
- Abstract: Selective classification is a powerful tool for automated decision-making in high-risk scenarios, allowing classifiers to make only highly confident decisions while abstaining when uncertainty is too high. Given a target classification accuracy, our goal is to minimize the number of indecisions, which are observations that we do not automate. For problems that are hard, the target accuracy may not be achievable without using indecisions. In contrast, by using indecisions, we are able to control the misclassification rate to any user-specified level, even below the Bayes optimal error rate, while minimizing the frequency of identifying an indecision. We provide a full characterization of the minimax risk in selective classification, proving key continuity and monotonicity properties that enable optimal indecision selection. Our results extend to hypothesis testing, where we control type II error given a fixed type I error, introducing a novel perspective in selective inference. We analyze the impact of estimating the regression function $\eta$, showing that plug-in classifiers remain consistent and that accuracy-based calibration effectively controls indecision levels. Additionally, we develop finite-sample calibration methods and identify cases where no training data is needed under the Monotone Likelihood Ratio (MLR) property. In the binary Gaussian mixture model, we establish sharp phase transition results, demonstrating that minimal indecisions can yield near-optimal accuracy even with suboptimal class separation. These findings highlight the potential of selective classification to significantly reduce misclassification rates with a relatively small cost in terms of indecisions.
- Abstract(参考訳): 選択的分類は、リスクの高いシナリオにおける自動意思決定のための強力なツールであり、不確実性が高すぎる場合に、高い信頼性のある決定しか行えない。
対象の分類精度を考慮すれば、自動ではない観察値である不確定値の数を最小限に抑えることが目的です。
難解な問題に対して、目標精度は不正確さを使わなければ達成できない。
対照的に、不確定性を用いることで、不確定性を特定する頻度を最小化しつつ、ベイズ最適誤差率よりも低い任意のユーザ指定レベルの誤分類率を制御することができる。
選択分類におけるミニマックスリスクの完全な評価,鍵連続性証明,および最適不確定選択を可能にする単調性特性について述べる。
結果は仮説テストにまで拡張され、固定型Iエラーを与えられたタイプIIエラーを制御し、選択推論における新しい視点を導入する。
我々は、回帰関数 $\eta$ を推定する影響を分析し、プラグイン分類器が一貫したままであり、精度に基づくキャリブレーションが非決定レベルを効果的に制御することを示した。
さらに,有限サンプル校正法を開発し,モノトン様比(MLR)特性下でトレーニングデータを必要としない場合を特定する。
二成分系ガウス混合モデルでは, 急激な相転移が成立し, 最小不確定値が準最適クラス分離においてもほぼ最適精度が得られることを示した。
これらの知見は,不確定な点において,比較的少ないコストで誤分類率を著しく低減する選択的分類の可能性を示している。
関連論文リスト
- On support vector machines under a multiple-cost scenario [1.743685428161914]
Support Vector Machine (SVM) はバイナリ分類において強力なツールである。
本稿では,性能制約を組み込んだ誤り分類コストを考慮した新しいSVMモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T16:12:25Z) - Fair Classifiers that Abstain without Harm [24.90899074869189]
批判的な応用においては、分類器は人間に意思決定を延期することが不可欠である。
本稿では,既存の分類器が特定のサンプルの予測を選択的に禁ずるポストホック法を提案する。
この枠組みは,同程度の禁制率で精度を犠牲にすることなく,公平性の違いの観点から既存手法より優れる。
論文 参考訳(メタデータ) (2023-10-09T23:07:28Z) - Improving Selective Visual Question Answering by Learning from Your
Peers [74.20167944693424]
VQA(Visual Question Answering)モデルは、間違っていた場合の回答を控えるのに苦労する可能性がある。
本稿では,複数モーダル選択関数の学習におけるLearning from Your Peers (LYP) アプローチを提案する。
提案手法では,学習データの異なるサブセットに基づいて訓練されたモデルの予測を,選択的VQAモデルの最適化のターゲットとして利用する。
論文 参考訳(メタデータ) (2023-06-14T21:22:01Z) - Minimax-Bayes Reinforcement Learning [2.7456483236562437]
本稿では,様々な強化学習問題に対するミニマックス・ベイズ解について検討する。
最悪のケースは設定に依存するが、対応するミニマックスポリシーは以前の標準(すなわち一様)を前提とするものよりも堅牢である。
論文 参考訳(メタデータ) (2023-02-21T17:10:21Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Calibrating Predictions to Decisions: A Novel Approach to Multi-Class
Calibration [118.26862029820447]
我々は、下流の意思決定者に対して、予測された分布と真の分布を区別不能にする必要がある新しい概念、即時校正を導入します。
決定キャリブレーションは、皮膚病変の判定と、現代のニューラルネットワークを用いたImageNet分類を改善する。
論文 参考訳(メタデータ) (2021-07-12T20:17:28Z) - Modularity in Reinforcement Learning via Algorithmic Independence in
Credit Assignment [79.5678820246642]
提案手法は, 事前決定の順序に対して, スパース変化のみを必要とする伝達問題に対して, 政策段階の手法よりも, より標本効率が高いことを示す。
我々は最近提案された社会的意思決定の枠組みをマルコフ決定プロセスよりもよりきめ細かい形式主義として一般化する。
論文 参考訳(メタデータ) (2021-06-28T21:29:13Z) - Classification with abstention but without disparities [5.025654873456756]
我々は、異なる影響を回避しつつ、予測を棄却できる汎用的な分類アルゴリズムを構築した。
提案したアルゴリズムに対して,有限サンプルリスク,公平性,および留意保証を確立する。
本手法は, 適度な禁制率により, リスク・フェアネストレードオフを回避できることを実証的に示す。
論文 参考訳(メタデータ) (2021-02-24T12:43:55Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。