論文の概要: Learning When to Say "I Don't Know"
- arxiv url: http://arxiv.org/abs/2209.04944v1
- Date: Sun, 11 Sep 2022 21:50:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:38:19.558973
- Title: Learning When to Say "I Don't Know"
- Title(参考訳): いつ「私は知らない」と言うかを学ぶ
- Authors: Nicholas Kashani Motlagh, Jim Davis, Tim Anderson, Jeremy Gwinnup
- Abstract要約: 本稿では,決定空間における不確実性領域を識別・除去するリジェクトオプション分類手法を提案する。
そこで我々は,相補的拒絶領域を解析し,クラスごとのソフトマックス閾値を学習するための検証セットを用いることにより,代替的な定式化を検討する。
提案手法の利点を,2次元点,画像,テキスト分類データセットを用いて評価した。
- 参考スコア(独自算出の注目度): 0.5505634045241288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new Reject Option Classification technique to identify and
remove regions of uncertainty in the decision space for a given neural
classifier and dataset. Such existing formulations employ a learned rejection
(remove)/selection (keep) function and require either a known cost for
rejecting examples or strong constraints on the accuracy or coverage of the
selected examples. We consider an alternative formulation by instead analyzing
the complementary reject region and employing a validation set to learn
per-class softmax thresholds. The goal is to maximize the accuracy of the
selected examples subject to a natural randomness allowance on the rejected
examples (rejecting more incorrect than correct predictions). We provide
results showing the benefits of the proposed method over na\"ively thresholding
calibrated/uncalibrated softmax scores with 2-D points, imagery, and text
classification datasets using state-of-the-art pretrained models. Source code
is available at https://github.com/osu-cvl/learning-idk.
- Abstract(参考訳): 本稿では,与えられた神経分類器とデータセットの判定空間における不確実性領域を識別・除去するための新しい拒絶選択分類手法を提案する。
このような既存の定式化では、学習拒絶(remove)/選択(keep)関数を採用しており、選択された例の正確性または範囲に関する強い制約を拒絶するための既知のコストが要求される。
代わりに補完的な拒絶領域を分析し,クラス毎のソフトマックス閾値を学習するための検証セットを用いる。
目標は、拒否された例に対する自然ランダム性許容条件(正しい予測よりも不正確な予測)に基づいて選択された例の精度を最大化することである。
本研究では,事前学習モデルを用いた2次元点,画像,テキスト分類データセットを用いた,na\"ively thresholding calibrated/uncalibrated softmax scoreに対する提案手法の有用性を示す。
ソースコードはhttps://github.com/osu-cvl/learning-idkで入手できる。
関連論文リスト
- Deep Neural Network Benchmarks for Selective Classification [29.603706870245816]
複数の選択的な分類フレームワークが存在し、その多くはディープニューラルネットワークアーキテクチャに依存している。
提案手法は,選択誤差率,経験的カバレッジ,拒否されたインスタンスのクラス分布,アウト・オブ・ディストリビューション・インスタンスの性能など,いくつかの基準を用いて評価する。
論文 参考訳(メタデータ) (2024-01-23T12:15:47Z) - Dirichlet-Based Prediction Calibration for Learning with Noisy Labels [40.78497779769083]
雑音ラベルによる学習はディープニューラルネットワーク(DNN)の一般化性能を著しく損なう
既存のアプローチでは、損失補正やサンプル選択手法によってこの問題に対処している。
そこで我々は,textitDirichlet-based Prediction (DPC) 法を解法として提案する。
論文 参考訳(メタデータ) (2024-01-13T12:33:04Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - Calibrated Selective Classification [38.01669058597009]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Online Selective Classification with Limited Feedback [82.68009460301585]
オンライン学習モデルにおいて、予測者がインスタンスの分類を控える可能性のある選択的分類について検討する。
私たちが考慮している設定の健全な2つの側面は、データが不可避である可能性があるため、データは不可避である可能性があるということです。
smash$tildeO(T1-mu)$ over abstention against Adaptive adversaries. smash$tildeO(T1-mu)$ incurring smash$tildeO(T1-mu)$ over abstention。
論文 参考訳(メタデータ) (2021-10-27T08:00:53Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Optimal strategies for reject option classifiers [0.0]
拒絶オプションの分類では、分類器は予測から逸脱する不確実なケースで許可される。
我々は、最小選択リスクと保証カバレッジを持つ分類器を求める有界被覆モデルという対称的な定義を作成した。
任意のブラックボックス分類器の例から適切な不確かさスコアを学習するための2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-29T11:09:32Z) - Regression with reject option and application to kNN [0.0]
我々は、このフレームワークをrejectオプションによる回帰として、rejectオプションによる分類の拡張として参照する。
2つのデータセットを含む最適規則を半教師付きで推定する手法を提案する。
その結果、リジェクションオプションを持つ予測器は、リスクとリジェクションレートの両方の観点から、リジェクションオプションを持つ最適予測器とほぼ同等であることが示された。
論文 参考訳(メタデータ) (2020-06-30T08:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。