論文の概要: Ask for More Than Bayes Optimal: A Theory of Indecisions for Classification
- arxiv url: http://arxiv.org/abs/2412.12807v1
- Date: Tue, 17 Dec 2024 11:25:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:58.386526
- Title: Ask for More Than Bayes Optimal: A Theory of Indecisions for Classification
- Title(参考訳): ベイズ最適以上を問う: 分類の不確定理論
- Authors: Mohamed Ndaoud, Peter Radchenko, Bradley Rava,
- Abstract要約: 分類器の誤分類率を任意のユーザ指定レベルまで制御でき、最小限の必要な決定量からのみ排除できることを示す。
多くの問題設定において、ユーザは、不確定な点において比較的小さな価格でしか支払わず、誤分類の劇的な減少を得ることができた。
- 参考スコア(独自算出の注目度): 1.8434042562191815
- License:
- Abstract: Selective classification frameworks are useful tools for automated decision making in highly risky scenarios, since they allow for a classifier to only make highly confident decisions, while abstaining from making a decision when it is not confident enough to do so, which is otherwise known as an indecision. For a given level of classification accuracy, we aim to make as many decisions as possible. For many problems, this can be achieved without abstaining from making decisions. But when the problem is hard enough, we show that we can still control the misclassification rate of a classifier up to any user specified level, while only abstaining from the minimum necessary amount of decisions, even if this level of misclassification is smaller than the Bayes optimal error rate. In many problem settings, the user could obtain a dramatic decrease in misclassification while only paying a comparatively small price in terms of indecisions.
- Abstract(参考訳): 選択的な分類フレームワークは、高いリスクのあるシナリオで自動決定を行う上で有用なツールである。
分類精度の所定のレベルについては、できるだけ多くの意思決定を行うことを目標としています。
多くの問題において、これは意思決定を控えることなく達成できる。
しかし,問題が十分難しい場合には,この誤分類がベイズ最適誤り率よりも小さい場合でも,最小限の必要な決定量からのみ排除しながら,分類器の誤分類率を任意のユーザレベルまで制御できることが示される。
多くの問題設定において、ユーザは、不確定な点において比較的小さな価格でしか支払わず、誤分類の劇的な減少を得ることができた。
関連論文リスト
- On support vector machines under a multiple-cost scenario [1.743685428161914]
Support Vector Machine (SVM) はバイナリ分類において強力なツールである。
本稿では,性能制約を組み込んだ誤り分類コストを考慮した新しいSVMモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T16:12:25Z) - Fair Classifiers that Abstain without Harm [24.90899074869189]
批判的な応用においては、分類器は人間に意思決定を延期することが不可欠である。
本稿では,既存の分類器が特定のサンプルの予測を選択的に禁ずるポストホック法を提案する。
この枠組みは,同程度の禁制率で精度を犠牲にすることなく,公平性の違いの観点から既存手法より優れる。
論文 参考訳(メタデータ) (2023-10-09T23:07:28Z) - Improving Selective Visual Question Answering by Learning from Your
Peers [74.20167944693424]
VQA(Visual Question Answering)モデルは、間違っていた場合の回答を控えるのに苦労する可能性がある。
本稿では,複数モーダル選択関数の学習におけるLearning from Your Peers (LYP) アプローチを提案する。
提案手法では,学習データの異なるサブセットに基づいて訓練されたモデルの予測を,選択的VQAモデルの最適化のターゲットとして利用する。
論文 参考訳(メタデータ) (2023-06-14T21:22:01Z) - Minimax-Bayes Reinforcement Learning [2.7456483236562437]
本稿では,様々な強化学習問題に対するミニマックス・ベイズ解について検討する。
最悪のケースは設定に依存するが、対応するミニマックスポリシーは以前の標準(すなわち一様)を前提とするものよりも堅牢である。
論文 参考訳(メタデータ) (2023-02-21T17:10:21Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Calibrating Predictions to Decisions: A Novel Approach to Multi-Class
Calibration [118.26862029820447]
我々は、下流の意思決定者に対して、予測された分布と真の分布を区別不能にする必要がある新しい概念、即時校正を導入します。
決定キャリブレーションは、皮膚病変の判定と、現代のニューラルネットワークを用いたImageNet分類を改善する。
論文 参考訳(メタデータ) (2021-07-12T20:17:28Z) - Modularity in Reinforcement Learning via Algorithmic Independence in
Credit Assignment [79.5678820246642]
提案手法は, 事前決定の順序に対して, スパース変化のみを必要とする伝達問題に対して, 政策段階の手法よりも, より標本効率が高いことを示す。
我々は最近提案された社会的意思決定の枠組みをマルコフ決定プロセスよりもよりきめ細かい形式主義として一般化する。
論文 参考訳(メタデータ) (2021-06-28T21:29:13Z) - Classification with abstention but without disparities [5.025654873456756]
我々は、異なる影響を回避しつつ、予測を棄却できる汎用的な分類アルゴリズムを構築した。
提案したアルゴリズムに対して,有限サンプルリスク,公平性,および留意保証を確立する。
本手法は, 適度な禁制率により, リスク・フェアネストレードオフを回避できることを実証的に示す。
論文 参考訳(メタデータ) (2021-02-24T12:43:55Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。